Page 1

PESQUISA FAPESP NOVEMBRO DE 2016

WWW.REVISTAPESQUISA.FAPESP.BR

NOVEMBRO DE 2016 | N. 249

Em 60 anos, 4 milhões de jacarés e 180 mil onças morreram na Amazônia para virar casaco de pele O arquipélago de São Pedro e São Paulo começou a emergir das profundezas da Terra há 11 milhões de anos

brasil de extremos Projeções baseadas em modelos climáticos e dados socioambientais indicam aumento das áreas vulneráveis a desastres naturais até o fim do século

Antropólogo que coordena projeto da FAPESP integrará conselho científico do governo dos EUA Intelectuais descendentes de escravos tiveram papel social importante antes da Abolição

n.249

Conhecida como Saint Peter, a tilápia ganha nova variedade e chip de DNA

EXEMPLAR DE ASSINANTE VENDA PROIBIDA

n.249

> PROJETO RECONSTITUI GENEALOGIA ACADÊMICA DE CIENTISTAS BRASILEIROS


INDEPENDENTE, LINDA E INTELIGENTE

207

ano 18 novembro 2015 R$ 14,90

www.revistacult.com.br

LIVROS

HOSPÍCIO É DEUS, O SOFREDOR DO VER

MAURA LOPES CANÇADO QUEM QUANDO QUEIRA

JOÃO BANDEIRA

DOSSIÊ

COMO CONVERSAR COM UM FASCISTA

O PENSAMENTO BRASILEIRO NAS ARTES VISUAIS

MARCIA TIBURI

ENTREVISTAS

PAULO HERKENHOFF e SYLVIE LE BON DE BEAUVOIR

SIMONE DE

ESPECIAL

O FEMINISMO LIBERTÁRIO DAS

211

ano 19 abril 2016 R$14,90

BEAUVOIR

SOCIEDADE

FAMÍLIAS HOMOAFETIVAS

www.revistacult.com.br

DOSSIÊ

ESPECIAL

COMBATENTES CURDAS

210

ano 19 março 2016 R$14,90

www.revistacult.com.br

E A FILOSOFIA DA CONDIÇÃO FEMININA

A DIVERSIDADE QUE NÃO CABE NO ESTATUTO

LIVROS DJAIMILIA PEREIRA DE ALMEIDA,

LITERATURA

400 ANOS DA MORTE

207_Capa.indd 1

REVELAÇÃO DA LITERATURA LUSO-ANGOLANA

10/27/15 4:20 PM

FRIDA

ESPECIAL

DE SHAKESPEARE E CERVANTES

PERCEPÇÕES DO FEMININO E AÇÕES FEMINISTAS

DOSSIÊ

KAHLO

PSICANÁLISE

“A SUBSTÂNCIA DO CORPO É O GOZO”

ARTE E FEMINISMO ÀS PRÓPRIAS CUSTAS

210_CapaFrida Kahlo.indd 1

3/1/16 2:07 PM

PA R A A S S I N A R A S S I N E C U LT @ E D I T O R A B R E G A N T I N I . C O M . B R

11 3 3 8 5 3 3 8 5 • 11 9 5 3 9 4 5 0 4 9

W W W . R E V I S TA C U LT . C O M . B R

W H AT S A P P


fotolab

A beleza do conhecimento em imagens

Sua pesquisa rende fotos bonitas? Mande para imagempesquisa@fapesp.br Seu trabalho poderá ser publicado na revista.

Invasores das folhas Os fungos do gênero Calonectria costumam causar danos a plantas ornamentais e culturas agrícolas, em especial árvores como eucaliptos e pinheiros. As folhas infectadas adquirem manchas que reduzem a capacidade de fotossíntese e, como consequência, o crescimento da planta e a produção de madeira. “O fungo pode causar a perda de até 80% das folhas de um eucalipto, é horrível de se ver”, conta Alexandre Fernandes, cujo projeto de conclusão de curso é investigar esses organismos no Mato Grosso sob a coordenação do engenheiro florestal Rafael Ferreira Alfenas. As análises permitiram identificar uma espécie nova (foto), ainda em processo de descrição.

Imagem enviada por Rildo Alexandre Fernandes da Silva, estudante de graduação em Engenharia Florestal na Universidade Federal do Mato Grosso, campus Sinop

PESQUISA FAPESP 249 | 3


novembro  249

16 CAPA Projeções apontam aumento do risco de desastres naturais, como enchentes, deslizamentos de terra e secas extremas

72 Pesquisa empresarial Farmacêutica Libbs inaugura fábrica de medicamentos de última geração para tratamento de câncer e doenças autoimunes

ENTREVISTA 24 José Augusto Penteado Aranha Estudos do engenheiro sobre dinâmica das águas marinhas e estruturas flutuantes resultaram em soluções que permitem a extração de petróleo em alto-mar

76 Oftalmologia Aparelhos portáteis para exames oculares podem ajudar em diagnósticos feitos a distância

CIÊNCIA

POLÍTICA CIENTÍFICA E TECNOLÓGICA

46 Ecologia Proibida desde os anos 1960, a caça reduziu a população de várias espécies de animais e elevou o risco de desequilíbrio ambiental

30 Formação Projetos começam a reconstituir a genealogia acadêmica de pesquisadores brasileiros

52 Bioquímica Aranha-gigante despeja sobre suas presas suco rico em enzimas que inicia a digestão

34 Reconhecimento Antropólogo que coordena projeto financiado pela FAPESP é nomeado para conselho que assessora o governo norte-americano

56 Neurociência Mecanismos neuronais explicam a estabilidade vocal de passarinhos

37 Infraestrutura Brasil perde fôlego em ranking mundial de supercomputadores 42 Patentes Universidades brasileiras ampliam esforços para transferir conhecimento e ocupam espaços que, em outros países, cabem às empresas

fotos da capa  Moacyr Lopes Júnior /Folhapress e Alberto Cesar Araujo /AE

58 Geologia Mapeamento submarino ajuda a recontar a origem inusitada do arquipélago de São Pedro e São Paulo 62 Física Com base em ideias reconhecidas pelo Nobel de 2016, brasileiros propõem modos de alterar propriedades elétricas e magnéticas de materiais

TECNOLOGIA 66 Piscicultura Estudos sobre a tilápia no país resultam em nova variedade, vacina e probióticos, além de seleção genética

HUMANIDADES 80 História Antes da Abolição, editores e homens de letras descendentes de escravos desempenharam papel social importante 85 Arte Pesquisa analisa a música brasileira produzida entre o samba da primeira geração e a bossa nova 88 Política indigenista Império tentou afastar os povos nativos de suas terras criando aldeamentos com atrativos da “civilização” seçÕes 3 Fotolab 5 Cartas 6 On-line 7 Carta da editora 8 Dados 9 Boas práticas 10 Estratégias 12 Tecnociência 92 Memória 94 Resenha 95 Carreiras 98 Classificados


Conteúdo a que a mensagem se refere:

cartas

cartas@fapesp.br

Revista impressa Reportagem on-line Galeria de imagens Vídeo Rádio

UFABC

O texto nos mostra a emergência de um modelo que superou a velha universi­dade pretensiosa, cheia de vícios e linguajares empolados, herdeira das piores distorções do positivismo do século XIX (“Universidade sem departamentos”, edição 247). Ganhei o dia. Álamo Pimentel

contatos revistapesquisa.fapesp.br redacao@fapesp.br PesquisaFapesp

Arte e loucura

Que reportagem maravilhosa (“Ateliê Juquery”, edição 247). Gostei tanto.

Regina Lima

PesquisaFapesp pesquisa_fapesp

Pesquisa Fapesp

Pesquisa Fapesp

cartas@fapesp.br R. Joaquim Antunes, 727 10º andar CEP 05415-012 São Paulo, SP Assinaturas, renovação e mudança de endereço Envie um e-mail para assinaturaspesquisa@ fapesp.br ou ligue para (11) 3087-4237, de segunda a sexta, das 9h às 19h Para anunciar  Contate: Paula Iliadis  Por e-mail: publicidade@fapesp.br Por telefone: (11) 3087-4212 Edições anteriores Preço atual de capa acrescido do custo de postagem. Peça pelo e-mail: clair@fapesp.br Licenciamento de conteúdo Adquira os direitos de reprodução de textos e imagens de Pesquisa FAPESP. Por e-mail: mpiliadis@fapesp.br Por telefone: (11) 3087-4212

Arqueologia

Essas fotos e suas legendas me levaram para bem perto da escavação (“Cenas de uma escavação arqueológica”). Só faltou o cheiro, ou seja, não faltou nada. Parabéns!

Rodolfo Dourado Maia Gomes

Saúde da mulher

Que médico sensacional. Isso é a medicina: ajudar o outro sem julgamentos (“Perfil: Anibal Faúndes”). Carol Oliveiras

YouTube

Melhor meio de atrair a juventude de hoje, sou prova viva disso (“Youtubers na ciência”). Bruno Marcelo

Amei, não só a parte visual e de edição da reportagem, mas também o conteú­do. Trabalho em um centro de pesquisa e vejo como é difícil fazer a transferência da linguagem tradicional para a moderna, mesmo tendo maior parte do quadro de pesquisadores jovens. Lutemos para que o assunto se torne, um dia, parte da grade curricular das universidades. Giuliana Castro Magalhães

O fascinante trabalho interdisciplinar da arqueologia no Brasil (“Os povos de Lagoa Santa”). Parabéns aos nossos bravos cientistas! Patricia Pitaluga

Reconhecimento

Criou-se o estigma de que há carreiras femininas e masculinas, inibindo possíveis vocações a este ou aquele determinado ramo do conhecimento (“Monica Porto é Eminente Engenheira do Ano”). Torço para que essa louvável agraciação contribua para diminuir a disparidade de gênero e promover a igualdade em todos os aspectos. André Rezende

Unicamp 50 anos

Parabéns a toda essa dinâmica universidade! 50 anos é pouco, mas quanto se pode fazer em tão pouco tempo! Que os próximos 50 sejam marcados pelo mesmo dinamismo. Elizabeth Balbachevsky

É muito gostoso ver o reconhecimento pela atuação da Unicamp na formação de profissionais de todas as áreas, sua colaboração no avanço do conhecimento, na economia do país, inovando em programas de inclusão social... Simone Figueiredo

Aptidão esportiva

Sempre com ótimas informações, ótimo vídeo (“Genética do esporte”). Espero mesmo que seja possível utilizar essa tecnologia a partir do período escolar. Creio que ajudará várias crianças a encontrar uma atividade física ideal. Lucas Tavares

Vacinas

Fantástico, excelente trabalho do médico Guido Carlos Levi! A vacinação deve ser feita sim. Esse movimento das classes A e B não tem fundamento epidemiológico, são casos de exceção tomados como regra pelo medo (“Perfil: Guido Carlos Levi”). Vinícius Paes

Correção

Na reportagem “Desafios sob encomenda” (edição 248), o número correto de artigos publicados em revistas indexadas por pesquisadores ligados ao Hospital Sírio-Libanês é 38 e não 28.

Sua opinião é bem-vinda. As mensagens poderão ser resumidas por motivo de espaço e clareza.

PESQUISA FAPESP 249 | 5


on-line

No site de Pesquisa Fapesp estão disponíveis todos os textos da revista em português, inglês e espanhol, além de conteúdo exclusivo

w w w . r e v i s ta p e s q u i s a . f a p e s p. b r

Rádio

A mais vista do mês no Facebook

A historiadora Josiane Oliveira fala sobre a exposição que reúne obras de pacientes do hospital psiquiátrico do Juquery

carreiras

Novas perspectivas de emprego para pós-graduados

658 curtidas 33 comentários 482 compartilhamentos

bit.ly/2ezTfEb

Exclusivo no site

Vídeos do mês

x No Parque Nacional da Serra da Capivara, no Piauí, macacos-prego costumam passar um tempo batendo uma pedra na outra. Já nos tempos pré-colombianos eles usavam pedras para quebrar castanhas-de-caju. Mas a utilidade de dar pancadas em pedras sem um alimento a ser processado ainda era uma incógnita. Em um artigo na Nature, pesquisadores brasileiros mostraram que a ação dos macacos dá origem a lascas de pedra em tudo semelhantes aos mais rudimentares exemplos de pedra lascada de sítios arqueológicos humanos bit.ly/2fjCfTR

youtube.com/user/PesquisaFAPESP

Assista ao vídeo:

Arqueólogos investigam sepultamentos no sítio arqueológico de Lapa do Santo, em Minas Gerais Michael Haslam

Macaco-prego bate pedras no Parque Nacional da Serra da Capivara

Assista ao vídeo:

x Inoculado no organismo pela picada do barbeiro, o protozoário Trypanosoma cruzi influencia o funcionamento das células humanas antes mesmo de invadi-las. Ao chegar aos tecidos com os quais tem afinidade, o parasita libera no meio extracelular uma molécula, a MVK, que facilita a sua entrada nas células, dando início à infecção que caracteriza a doença de Chagas. A conclusão é de uma equipe de pesquisadores da Universidade Federal de São Paulo (Unifesp) e foi apresentada em um artigo publicado na revista Scientific Reports  bit.ly/2eQJK1Q 6 | novembro DE 2016

Pesquisadores falam sobre o trabalho de divulgação científica no YouTube


carta da editora

Computadores e dados Alexandra Ozorio de Almeida |

O

processamento de dados em larga escala, que se tornou possível com a disseminação de computadores muito potentes, é um poderoso instrumento para muitas áreas de pesquisa. Supercomputadores com capacidade de processar milhões de linhas de código por segundo são utilizados nas mais diversas áreas do conhecimento para solucionar problemas ou fazer projeções. A situação do Brasil no ranking mundial dos 500 computadores de mais alto desempenho é tema de reportagem à página 36. Três dos quatro equipamentos brasileiros que constam da lista compõem um cluster localizado em um simpático prédio inspirado no chapéu de Santos Dumont nas instalações do Laboratório Nacional de Computação Científica (LNCC), em Petrópolis, no Rio de Janeiro; o quarto fica no Campus Integrado de Manufatura e Tecnologia do Serviço Nacional de Aprendizagem Industrial (Senai Cimatec), em Salvador, na Bahia. O retrato atual da supercomputação no país não é animador. Em 2004, o Brasil chegou a ocupar a 9ª posição, com nove equipamentos em funcionamento, e hoje está em 17º lugar. Além do retrocesso em termos comparativos internacionais, outra fonte de preocupação sinalizada pela reportagem é a subutilização de supercomputadores em operação no país, em parte devido aos altos custos de manutenção e operação dos equipamentos. Importantes para o avanço da ciência e o desenvolvimento tecnológico, essas máquinas requerem uma cuidadosa política nacional de aquisição e uso. Os supercomputadores são usados nas mais variadas áreas, como defesa e saúde, e na análise do clima – desde a previsão de chuva diária até a possibi-

diretora de redação

lidade de alteração da temperatura do planeta no futuro próximo. A reportagem de capa desta edição (página 16) discute os resultados de simulações feitas com dois modelos climáticos processados em computadores de alto desempenho. Os primeiros modelos computacionais criados para simular o ambiente do planeta utilizavam apenas dados sobre elementos físicos do clima, como água, ar e luz do sol. Com o avanço da capacidade de processamento de dados e programação dos modelos, tornou-se possível aumentar o grau de detalhe, estimando, por exemplo, como mudanças na acidez dos oceanos causadas pelo aumento do dióxido de carbono no ambiente afetam cadeias alimentares marinhas. Uma das dificuldades enfrentadas pelos pesquisadores que trabalham com modelagem climática é um aparente paradoxo: como cada vez mais variáveis são consideradas nas simulações, e cada elemento está sujeito a variação, o resultado pode ser uma variação maior nos resultados das simulações. Uma previsão diferente da variação de temperatura ou do regime de chuvas pode resultar de simulações em modelos diferentes que privilegiem elementos diversos. As simulações apresentadas na reportagem de capa utilizaram dois modelos climáticos para prever, basicamente, aumento ou queda de temperatura e de volume de chuva. A esses modelos globais foi acoplado um modelo de escala regional, desenvolvido pelo Instituto Nacional de Pesquisas Espaciais. O objetivo foi além de projetar aumento ou redução de chuvas e temperatura no país: procurou-se prever o impacto dessas mudanças. Uma maior precipitação no meio da floresta pode ter um

efeito pequeno, enquanto em uma região metropolitana pode ser devastador. Para tanto, foram inseridos dados sobre as condições econômicas, sociais e ambientais de todos os municípios brasileiros. As projeções resultantes das duas simulações são semelhantes para cerca de 80% do território nacional, o que dá robustez aos resultados. Uma aplicação interessante e útil da capacidade de processar uma grande quantidade de dados é retratada na reportagem sobre a genealogia acadêmica brasileira feita a partir das informações constantes na Plataforma Lattes, do CNPq (página 30). Os dados extraídos da base federal de 4,5 milhões de currículos foram complementados por informações do Banco de Teses da Capes e da Academia Brasileira de Ciências. Além do interesse histórico e sociológico, metodologias baseadas na genealogia acadêmica poderão, futuramente, ser utilizadas no campo da avaliação, medindo o impacto que um pesquisador teve na formação de novas gerações. * A revista apresenta, a partir desta edição, uma pequena mudança: a seção Dados e Projetos passará a ser ocupada exclusivamente por Dados. Os auxílios à pesquisa recém-aprovados nas modalidades Projeto Temático e Jovens Pesquisadores estarão destacados na página da Biblioteca Virtual do Centro de Documentação e Informação da FAPESP. A BV, como é conhecida, é fonte referencial de informação para a pesquisa apoiada pela Fundação: em 5/11/2016, trazia informações sobre 89.841 auxílios à pesquisa e 126.804 bolsas no país e no exterior concedidos pela FAPESP (www.bv.fapesp.br). PESQUISA FAPESP 249 | 7


Dados

A ciência sobre os Jogos Olímpicos Rio 2016

Artigos e citações

instituições e países dos autores Pesquisadores de mais de 100 instituições, de 28 países, participaram como autores dos artigos publicados sobre a Rio 2016. O Brasil lidera ambas as listas

80 Citações

60 40 20 0

UFRJ [Bra]

Artigos

10

FIOCRUZ [Bra] 2010 2011 2012 2013 2014 2015 2016

Entre 2010 e 2016 foram publicados 84 artigos em revistas indexadas pelo sistema Web of Science sobre os Jogos Olímpicos Rio 2016, que receberam um total de 131 citações

43

Brasil

7

12

eua

USP [Bra]

5

inglaterra

U. londres [Ing]

5

austrália

10 8

uff [bra]

4

alemanha

4

puc-rio [bra]

4

canadá

4 4

uerj [bra]

3

espanha

unifesp [bra]

3

itália

U. yale [eua]

3

suíça

4 3

artigos mais citados

áreas do conhecimento Abaixo, as áreas do conhecimento mais frequentes em artigos publicados sobre os três últimos Jogos Olímpicos. Praticamente ausentes de artigos nas edições anteriores, doenças infecciosas aparecem na 9ª posição em 2016 2008

2012

2016

1o

Ciências do Esporte

2o

C. Sociais (outros tópicos)

3o

Sociologia

4o

Economia e Negócios

5o

Psicologia

C. Atmosféricas e meteorologia

6o

Engenharia

Administração Pública

7o

Saúde Pública, Ocupacional e Ambiental

8o

C. Ambientais e Ecologia

9o

Toxocologia

10o

Atendimento da saúde

Doenças Infecciosas

Comunicação

História

Nas quatro edições anteriores dos Jogos Olímpicos (Sidney, Atenas, Pequim, Londres), os países-sede apareceram mais vezes como endereço dos autores dos artigos mais citados. Na Rio 2016, o Brasil aparece apenas uma vez como domicílio de pesquisadores dos papers mais citados

27 citações › Petersen, E. Rapid spread of zika virus in the Americas – Implications for public health preparedness for mass gatherings at the 2016 Brazil Olympic Games. Int. J. Infect. Diseases. n. 44 (2016), p. 11-15. 13 citações › Forbes-Robertson, S. Circadian disruption and remedial interventions effects and interventions for jet lag for athletic peak performance. Sports Medicine. n. 42:3 (2012), p.185-208. 10 citações › Hue, O. The challenge of performing aerobic exercise in tropical environments: Applied knowledge and perspectives. Int. J. Sports Physiology & Performance. n. 6:4 (2011), p. 443-54.

Área que aparece apenas uma vez

Metodologia foram pesquisadas todas as bases de dados do sistema Web of Science, Thomson Reuters, utilizando as seguintes buscas (e seus análogos para os Jogos de Sidney, Atenas, Pequim e Londres, inclusive em português): Título – Olimpíadas, “Jogos Olímpicos”, “Olympic Games”, Olympics, + Rio, + 2016; Tópico – Olimpíadas, “Jogos Olímpicos”, “Olympic Games”, + Rio, + 2016. Data da pesquisa: 23/09/2016.

fapesp – fundação de amparo à pesquisa do estado de são Paulo

Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia  Governo do Estado de São Paulo

Presidente José Goldemberg | Vice-Presidente Eduardo Moacyr Krieger | Conselho Superior Carmino Antonio de Souza, Eduardo Moacyr Krieger, Fernando Ferreira Costa, João Fernando Gomes de Oliveira, João Grandino Rodas, José Goldemberg, Marilza Vieira Cunha Rudge, José de Souza Martins, Julio Cezar Durigan, Pedro Luiz Barreiros Passos, Pedro Wongtschowski, Suely Vilela Sampaio | Conselho Técnico-Administrativo Carlos Américo

Pacheco (Diretor-Presidente); Carlos Henrique de Brito Cruz (Diretor Científico); Joaquim J. de Camargo Engler (Diretor Administrativo)

revista pesquisa fapesp  –– Coordenador científico Luiz Henrique Lopes dos Santos | diretora de redação Alexandra Ozorio de Almeida | editor-chefe Neldson Marcolin | Editores Fabrício Marques (Política), Márcio Ferrari (Humanidades), Marcos de Oliveira (Tecnologia), Ricardo Zorzetto (Ciência), Carlos Fioravanti e Marcos Pivetta (Editores espe­ciais), Bruno de Pierro (Editor-assistente) | revisão Alexandre Oliveira e Margô Negro | arte Mayumi Okuyama (Editora), Ana Paula Campos (Editora de infografia), Júlia Cherem Rodrigues e Maria Cecilia Felli (Assistentes) | fotógrafos Eduardo Cesar e Léo Ramos | Mídias eletrônicas Fabrício Marques (Coordenador) | Internet Pesquisa FAPESP on-line Maria Guimarães (Editora), Rodrigo de Oliveira Andrade (Repórter), Jayne Oliveira (Redatora), Renata Oliveira do Prado (Mídias sociais) | Rádio Pesquisa Brasil Biancamaria Binazzi (Produtora) | Colaboradores Alexandre Affonso, André Julião, Bárbara Malagoli, Christina Queiroz, Igor Zolnerkevic, Lauro Lisboa Garcia, Luana Geiger, Nelson Provazi, Pedro Hamdan, Valter Rodrigues, Yuri Vasconcelos

GESTÃO ADMINISTRATIVA Instituto Uniemp | PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP | FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP

Para falar com a redação (11) 3087-4210, cartas@fapesp.br | Para anunciar Paula Iliadis (11) 3087-4212, publicidade@fapesp.br | Para assinar (11) 3087-4237 assinaturaspesquisa@fapesp.br

Tiragem 29.500 exemplares | IMPRESSão Plural Indústria Gráfica | distribuição Dinap | É proibida a reprodução total ou parcial de textos e fotos sem prévia autorização


Boas práticas

ilustração  luana geiger

O perigo de publicar em revistas predatórias Existem publicações acadêmicas, apelidadas de revistas predatórias, que são conhecidas por divulgar papers sem submetê-los a uma genuína revisão por pares – basta pagar para ver o artigo publicado. O pesquisador Alexander Martin, do Colégio de Engenharia da Universidade de Kentucky, nos Estados Unidos, mostrou que o espectro de problemas causados por essas revistas pode ser mais sério do que se imaginava. Martin selecionou revistas de uma lista de mais de mil periódicos, provavelmente predatórios, que é atualizada por pesquisadores da Universidade do Colorado. A meta do pesquisador era submeter aos editores dessas revistas papers que, em condições normais, jamais seriam aceitos para publicação – e ver qual seria a reação deles. A primeira tentativa se deu com uma revista on-line chamada International Journal of Comprehensive Research in Biological Sciences, sediada na Índia. Martin enviou um manuscrito de 153 palavras cujo conteúdo fora copiado de um trabalho de escola feito por seu filho Tristan, de 7 anos, sobre morcegos. O texto reproduzia frases escritas pelo garoto, como “morcegos são animais muito legais” ou “dormem durante o dia e voam à noite”. A revista logo enviou um e-mail pedindo para os autores acrescentarem pelo menos cinco referências. Martin atendeu o pedido. Um novo e-mail informou que o artigo havia sido preliminarmente aceito para publicação. Em anexo, vinha a cobrança de uma taxa de US$ 60. “Esperava que algumas revistas aceitassem esse tipo de artigo, considerando experiências anteriores, mas isso aconteceu já na primeira tentativa”, disse

Martin ao site Retraction Watch, referindo-se a casos como a publicação de artigos falsos e sem sentido produzidos por um programa de computador (ver Pesquisa FAPESP nº 219). Martin não pagou a taxa. Semanas depois, recebeu um segundo e-mail do editor, cobrando novamente os US$ 60 e apresentando uma nova versão do texto, essa já revisada e pronta para publicação. O manuscrito havia sido completamente reescrito em um linguajar científico – só o título e os autores permaneceram. Sua primeira impressão foi boa, mas logo ele descobriu que havia algo errado: o artigo tornara-se uma colagem de trechos plagiados de dois outros papers, numa fraude praticada pelos próprios editores da revista. “Fiquei chocado ao imaginar que alguém pudesse fazer uma coisa dessas”, disse. “Essas revistas têm um impacto muito negativo na comunidade científica e todos

precisam estar conscientes disso.” A revista indiana deixou de existir – seu site saiu do ar em janeiro. Martin registrou as lições tiradas do episódio num artigo publicado na revista Learned Publishing.

Artigo científico Martin, A. et al. A not-so-harmless experiment in predatory open access publishing. Learned Publishing. v. 29, n. 4, p. 301-05. out. 2016.

Reações distintas Duas indústrias farmacêuticas tiveram reações diferentes ao lidar com casos recentes de má conduta envolvendo seus pesquisadores. A Pfizer demitiu Min-Jean Yin, pesquisadora sênior desde 2003 que trabalhava no desenvolvimento de medicamentos contra o câncer no laboratório da empresa em La Jolla, na Califórnia. A companhia também tomou a iniciativa de solicitar a retratação de seis artigos assinados por Yin. Os papers traziam imagens manipuladas e se relacionavam com pesquisas sobre inibidores de enzimas feitas na Pfizer. Já a alemã Boehringer Ingelheim manteve em

seus quadros a bióloga Tina Wenz, mesmo depois de uma investigação feita pela Universidade de Colônia, na Alemanha, onde ela trabalhou como pesquisadora, constatar manipulação de dados em seis artigos de sua autoria – um deles já sofreu retratação. Tina Wenz foi contratada como pesquisadora do laboratório da Boehringer Ingelheim em Biberach, no sul da Alemanha, no final de 2015, quando as suspeitas de má conduta já estavam sendo investigadas. Ao blog For Better Science, a empresa argumentou que as acusações não têm conexão com o trabalho que Tina está fazendo atualmente. PESQUISA FAPESP 249 | 9


Estratégias Clima de reconhecimento

1

Bob Dylan: letras de música homenageadas em artigos científicos

Meu compositor preferido

O meteorologista Carlos

Experimento de Grande

Nobre, de 65 anos, foi

Escala da Biosfera-

agraciado com o Volvo

Atmosfera na Amazônia

Environment Prize, que

(LBA) entre 1996 e

reconhece contribuições

2002 e do Programa

científicas notáveis ou

FAPESP de Pesquisa em

inovações no campo do

Mudanças Climáticas

meio ambiente e da

Globais entre 2008 e

sustentabilidade. Mais

2011. Até recentemente,

de duas décadas atrás,

presidiu a Coordenação

ele formulou a hipótese

de Aperfeiçoamento

da savanização da

de Pessoal de Nível

Amazônia, entendida

Superior (Capes).

como a transformação

Participou como

progressiva da floresta

autor de vários

tropical em uma

relatórios do Painel

paisagem mais rala,

Intergovernamental

semelhante às savanas

de Mudanças Climáticas

africanas, em resposta

(IPCC), em particular

A escolha de Bob Dylan

foram encontradas 727

aos desmatamentos.

do Quarto Relatório de

para o Nobel de

referências a letras de

Nobre foi pesquisador

Avaliação do IPCC, de

Literatura foi recebida

Dylan na base de dados

do Instituto Nacional de

2007. “Mais até que o

com surpresa, mas já se

de artigos da área

Pesquisas Espaciais

reconhecimento pessoal,

sabia que a obra do

médica MedLine, sendo

(Inpe) de 1983 a 2012,

é o reconhecimento da

compositor servia de

213 homenagens

onde comandou o Centro

excelência da pesquisa

inspiração em ambientes

inequívocas. A primeira

de Ciência do Sistema

que se faz no Brasil

muito próximos ao

aparece em 1970 na

Terrestre e o Centro

voltada para os estudos

prêmio. Em 2014, uma

revista The Journal of

de Previsão de Tempo

climáticos e ambientais,

revista sueca revelou

Practical Nursing, no

e Estudos Climáticos.

especificamente na

que pesquisadores

artigo “The times they

Foi coordenador do

Amazônia”, disse

do Instituto Karolinska,

are a-changin”, título de

Nobre ao site do

onde é feita a escolha do

um sucesso de Dylan

Ministério da Ciência,

Nobel de Medicina,

de 1964. Outros 134

Tecnologia, Inovações

divertiram-se durante

artigos reproduziram o

e Comunicações. Ele

muito tempo

nome dessa música em

receberá o prêmio em

escamoteando trechos

seus títulos para sugerir

novembro em uma

de letras de Dylan em

que os tempos estavam

cerimônia em Estocolmo,

seus artigos científicos.

mudando. “Blowin’ in

na Suécia. O Volvo

A brincadeira começou

the Wind” (1963) foi a

Environment Prize

em 1997, com um paper

segunda mais citada,

já foi concedido

intitulado “Nitric oxide

com 36 referências. A

a economistas,

and inflammation: The

conclusão dos autores é

biólogos, urbanistas

answer is blowing in the

que o respeito de Dylan

e físicos – entre os quais

wind”. No ano passado,

pela profissão médica,

dois vencedores do

pesquisadores do

evidenciado num trecho

Prêmio Nobel, o químico

Karolinska resolveram

da música ”Don’t fall

Mario Molina e o

procurar alusões a

apart on me tonight”

economista Muhammad

canções do compositor

em que ele diz “I wish I’d

Yunus. Em 2000, o

em outros periódicos.

have been a doctor”

físico José Goldemberg,

O resultado rendeu um

(Gostaria de ter sido um

artigo na revista TheBMJ:

médico), era recíproco.

10 | novembro DE 2016

Carlos Nobre: contribuição acadêmica premiada

presidente da FAPESP, 2

foi o agraciado.


Perdido em Marte A ambição da Agência Espacial Europeia

relli espatifou-se no solo marciano a mais

esgotar suas baterias. Johann-Dietrich

(ESA) de enviar a Marte dentro de quatro

de 300 quilômetros por hora. Foi a pri-

Wörner, diretor-geral da ESA, afirmou

anos um veículo para explorar a superfí-

meira vez que a ESA tentou fazer um

que a missão não foi um fracasso. Isso

cie do planeta sofreu um revés no dia 19

pouso em Marte – até hoje, só a Nasa

porque a sonda Trace Gas Orbiter, que

de outubro, quando o módulo Schiapa-

teve sucesso em missões desse tipo.

levava o Schiaparelli, completou sua mis-

Aparentemente, o Schiaparelli calculou

são com êxito ao entrar na órbita de

de forma errada sua distância da super-

Marte, de onde vai analisar a atmosfera

fície, livrando-se de um paraquedas e

do planeta. E também porque o módulo

desligando propulsores capazes de ate-

enviou dados suficientes sobre a aterris-

nuar a queda mais cedo do que deveria.

sagem para mostrar o que deu certo e o

O objetivo da viagem era justamente

que deu errado. O risco da ESA é político:

testar a capacidade dos europeus de

o incidente pode atrapalhar o esforço da

aterrissar no planeta – o módulo enviaria

agência em obter o dinheiro necessário

imagens por menos de uma semana até

para a missão a Marte em 2020.

3

O módulo Schiaparelli durante testes: choque fatal a 300 km por hora

fotos 1 Xavier Badosa 2 Valter Campanato / Agência Brasil  3 Boris Bethge  4 Diogo Brito / Fapemig

Mulheres invisíveis

Uma nova safra de institutos O Conselho Nacional

entre as quais a FAPESP.

de Desenvolvimento

O prazo de financiamento

Científico e Tecnológico

dos projetos é de até seis

(CNPq) anunciou no dia

anos. Entre os INCTs

26 de outubro os 101

paulistas, 16 terão sede

projetos contemplados

na Universidade de São

no novo edital do

Paulo, 6 na Universidade

Um grupo de 80

dados em neurociência

programa Institutos

Estadual de Campinas,

neurocientistas, na

realizada em setembro,

Nacionais de Ciência e

3 na Universidade Federal

maioria mulheres, lançou

todos os palestrantes

Tecnologia (INCTs).

de São Carlos, 2 na

em 2015 uma iniciativa

eram homens –

O estado de São Paulo

Universidade Estadual

para combater um viés

embora a proporção de

terá 33 dos 101 centros.

Paulista e 2 no Centro

de gênero observado em

mulheres na pesquisa

O programa é financiado

Nacional de Pesquisa em

conferências científicas

em neurociência

pelo governo federal,

Energia e Materiais.

em seu campo do

computacional seja de

por meio do CNPq,

O Instituto de Pesquisas

conhecimento: a baixa

20% nos Estados

da Coordenação de

Tecnológicas, o

proporção de

Unidos. A divulgação

Aperfeiçoamento

Instituto Agronômico

palestrantes do sexo

dos exageros já começa

de Pessoal de Nível

de Campinas, o Instituto

feminino. Batizado de

a produzir efeitos.

Superior, da Financiadora

Nacional de Pesquisas

BiasWatchNeuro, o

Num encontro anual de

de Estudos e Projetos, e

Espaciais e a Fundação

grupo é composto por

sistemas computacionais

por governos estaduais,

Antônio Prudente

pesquisadores de

e neurociência, o

através de 14 fundações

abrigarão um instituto

Estados Unidos,

Cosyne, a proporção

de amparo à pesquisa,

cada. A lista de projetos

Alemanha, Austrália,

de mulheres entre

cofinanciados, disponível

Itália, França e Reino

palestrantes chegou

em byt.ly/INCT162014,

Unido. Já monitorou a

perto de 40% em 2016

foi definida em reunião

programação de mais

– em 2004, nehuma

entre as instituições no

de 90 conferências e

mulher fora convidada.

dia 5 de outubro na sede

workshops, ao mesmo

Um editorial da revista

do CNPq. A escolha foi

tempo que mapeou

Nature exortou outras

um dos últimos atos da

a proporção

áreas do conhecimento

gestão do químico

de mulheres entre os

a seguirem esse

pesquisadores de

exemplo: “As mulheres

neurociência. Numa

cientistas não têm nada

reunião sobre o uso de

a perder, além de sua

grandes volumes de

invisibilidade”.

Hernan Chaimovich no O engenheiro Mário Neto Borges: novo presidente do CNPq

órgão. No dia 20, o engenheiro Mário Neto Borges foi nomeado para 4

presidir o CNPq. PESQUISA FAPESP 249 | 11


Tecnociência Por que as cobras não têm patas TTCTGAGGTAACTTCCT.

de 17 pares de base

A ausência dessa

está ausente. Por meio

sequência de 17 pares de

da técnica CRISPR-Cas9,

bases, as unidades

ferramenta da biologia

químicas que compõem o

molecular que permite

DNA, em um trecho do

editar segmentos

genoma das cobras, fez

específicos de um gene,

esses répteis perderem

os pesquisadores

progressivamente

inseriram e apagaram

suas patas (Cell, 20

a tal sequência em

de outubro). Essa é a

camundongos

conclusão de um estudo

transgênicos. Quando

coordenado por

introduziam nos roedores

pesquisadores do

a sequência proveniente

Laboratório Nacional

de vertebrados com

Lawrence Berkeley,

membros, como o ser

na Califórnia, com

humano, o cavalo e a

participação do biólogo

galinha, os roedores

molecular brasileiro Uirá

formavam patas. Se a

Com o emprego

5 milhões de vezes mais

Souto Melo. A sequência

origem do trecho inserido

de técnicas de

luminosa do que o Sol.

faz parte de uma região

eram duas das espécies

interferometria na faixa

A secundária, a Eta

regulatória que controla

de cobras estudadas,

do infravermelho que

Carinae B, é dois terços

o funcionamento do gene

os camundongos não

geram uma nitidez

menor e 10 vezes menos

Sonic hedgehog (Shh),

produziam seus membros.

50 mil vezes maior do

brilhante do que a

responsável pela

“Vimos que a sequência é

que a do olho humano,

irmã maior. “As atuais

produção de uma proteína

suficiente para controlar

uma equipe de

observações permitiram

importante para o

a formação das patas”,

astrofísicos, coordenada

mapear a zona de colisão

crescimento dos

explica Melo, que fez

por Gerd Weigelt do

de ventos e demonstram

membros. Denominada

parte do seu doutorado

Instituto Max Planck de

que entendemos os

ZRS, essa região é bem

no ano passado na

Radioastronomia de

parâmetros básicos do

conservada no genoma

instituição norte-

Bonn, observou detalhes

sistema binário”,

dos vertebrados, mas

-americana e hoje está no

inéditos da Eta Carinae,

comenta Augusto

apresenta algumas

Centro de Pesquisa sobre

sistema composto

Damineli, astrofísico da

deleções no DNA das

o Genoma Humano e

por duas estrelas de alta

Universidade de São

serpentes. No caso das

Células-tronco (CEGH-

massa (Astronomy

Paulo (USP), um dos

cobras modernas, que

CEL), da Universidade de

& Astrophysics,

três brasileiros que

não têm patas, o trecho

São Paulo (USP).

19 de outubro). Os

participaram do trabalho.

pesquisadores obtiveram

A Eta Carinae se encontra

imagens do ponto em que

envolta por uma densa

os ventos das estrelas

nuvem de gás e poeira, no

(átomos de sua superfície

formato de dois lóbulos,

empurrados pela luz)

denominada Homúnculo.

colidem e calcularam a

Essa particularidade

velocidade em que ocorre

dificulta ainda mais a

o choque, de cerca de

sua observação. As novas

10 milhões de

imagens do sistema

quilômetros por hora. A

foram obtidas pelo

estrela principal e maior,

interferômetro

a Eta Carinae A, tem

do telescópio VLT do

aproximadamente

Observatório Europeu

100 massas solares e é

do Sul (Eso).

2

12 | novembro DE 2016

3

Jiboia: ausência de trecho com 17 pares de bases fez cobras perderem as patas

1

No coração da Eta Carinae

A nuvem de gás e poeira em torno da estrela (à esq.) e detalhe da Eta Carinae: colisão de ventos estelares a 10 milhões de km/h


Material encolhe quando aquecido

Nanopartículas de um

concentração de

mineral magnético

magnetita nas folhas foi

podem ser empregadas

de duas a três vezes

para aumentar a

maior do que nas

Junte um material duro

concentração de ferro

irrigadas com água pura.

à base de cobre que

nas folhas do feijão. Uma

“Agora pretendemos

se expande lentamente

equipe de pesquisadores

fazer medições nos

brasileiros e cubanos

grãos, a parte da planta

elástico que se distende

irrigou plantas dessa

consumida pelas

rapidamente e produza,

leguminosa com uma

pessoas”, diz Renato de

com esses dois

solução de água e

Figueiredo Jardim,

diferentes proporções de

do Instituto de Física

partículas de magnetita

da Universidade de

(Fe3O4), formada

São Paulo (IF-USP). Não

por óxidos de ferro, com

foi detectada nenhuma

diâmetro médio de

toxicidade durante o

10 nanômetros. Medidas

crescimento das plantas.

com um polímero mais

fotos 1 Gnangarra / wikicommons 2 e 3 ESO / Gerd Weigelt  4 Qiming Wang  5 Miguel Boyayan 

Nanopartícula fortifica feijão

4

ingredientes e o auxílio

O experimento foi feito

de uma técnica especial

por engenheiros da

de impressão em 3D,

Universidade do Sul da

pequenas estruturas em

Califórnia, do

formato de estrela, com

Massachusetts Institute

barras interconectadas,

of Technology (MIT) e

do tamanho de um cubo

de outras instituições

de magnetização foram

Os pesquisadores

de açúcar. As barras

norte-americanas

feitas no solo e em três

imaginam ser possível

internas são compostas

(Physical Review Letters,

órgãos secos dos feijões:

difundir o cultivo com

pelo material mais

21 de outubro). Segundo

raízes, hastes e folhas.

nanopartículas

maleável elástico e

os autores do trabalho,

Nas plantas cultivadas

em regiões com dietas

as externas, pelo mais

o volume das estruturas

dessa forma, a

pobres em ferro.

rígido. Pegue essas

encolheu cerca de 0,6%.

estruturas e as aqueça

Pode parecer uma

até 282º Celsius.

alteração insignificante,

O resultado foi

mas a estranha

surpreendente: as peças

propriedade desse

encolheram ao invés

material composto pode

de se expandirem, como

ser interessante para

ocorre com a maioria

muitas indústrias, como

dos materiais sólidos

a espacial, a construção

expostos ao calor.

civil e a informática.

Estrutura de material composto: diminui volume em 0,6% a 282º Celsius

5

Paubrasilia echinata: novo nome científico da espécie

Pau-brasil vira gênero de árvore A árvore de cerne avermelhado da Mata

denominou Caesalpinia echinata em 1785,

Atlântica que serviu de tintura no pas-

foi agora rebatizada de Paubrasilia echi-

sado colonial, é usada como madeira do

nata. Segundo os autores do trabalho,

arco dos melhores violinos e está inti-

entre os quais o taxonomista de plantas

mamente associada à designação de sua

Luciano Paganucci de Queiroz, da Uni-

terra natal, mudou oficialmente de nome

versidade Estadual de Feira de Santana

científico e virou a primeira e única es-

(UEFS), o pau-brasil apresenta material

pécie de um novo gênero. Pesquisadores

genético e traços morfológicos suficien-

do Canadá, Suíça, Reino Unido e Brasil

temente diferentes para se tornar um

fizeram análises filogenéticas com amos-

gênero próprio. No estudo, os pesquisa-

tras do DNA de 173 das 205 espécies de

dores propõem uma reorganização ta-

plantas do grupo Caesalpinia e determi-

xonômica de todo o grupo Caesalpinia,

naram, entre outros resultados, que o

até então dividido em 21 gêneros. Eles

pau-brasil é uma árvore tão distinta que

agruparam as espécies em 27 gêneros,

faz jus a um gênero próprio (Phytokeys,

sendo um deles o Ticanto, ainda de ca-

12 de outubro). A espécie, que Lamarck

ráter provisório.

PESQUISA FAPESP 249 | 13


LED flexível usa pouca energia Pesquisadores da Universidade Tecnológica Chalmers, de Gotemburgo, na Suécia, desenvolveram uma tela flexível de LED, com 1 micrômetro de espessura, que poderia ser a base de um hipotético papel eletrônico. O display reproduz todas as cores de um LED convencional e consome

Observatório Pierre Auger: registro de até 60% mais múons originados de chuveiro de raios cósmicos

10% da energia gasta por um tablet convencional (Advanced Materials, 27 de 1

setembro). A tela é feita com polímeros condutores que refletem

Mais múons do que previsto pelo LHC

a luz externa. Essa característica a torna

Os raios cósmicos de alta

com moléculas na

a altas energias ainda é

atraente para ser usada

energia parecem gerar

atmosfera da Terra,

apenas parcial. Não

em lugares ensolarados,

chuveiros de partículas

cascatas de partículas

é a primeira vez que

diferentemente das telas

com até 60% mais

secundárias são geradas

a quantidade de múons

de LED convencional,

múons do que preveem

por meio de uma série de

medidos na Terra não

que funcionam melhor

os modelos criados a

interações. Uma dessas

coincide com as previsões

no escuro. Há, no

partir das medições feitas

partículas são os múons,

dos modelos da física. No

entanto, um obstáculo

no Grande Colisor de

que em sua grande

ano 2000, o experimento

a ser vencido para que

Hádrons (LHC), o

maioria chegam ao solo

HiRes-MIA detectou

esse novo tipo de LED

principal acelerador de

da Terra. Por meio de

uma densidade maior de

partículas do Cern.

1660 tanques Cherenkov

múons nos chuveiros

A discrepância

que cobrem uma área de

de raios cósmicos do

foi constatada pelos

3 mil quilômetros

que previam os modelos

registros obtidos por

quadrados e de quatro

teóricos da época.

físicos do Observatório

conjuntos de telescópios,

Pierre Auger, situado nos

o Auger detecta os

Andes argentinos, uma

múons que caem nos

iniciativa internacional

Andes. As colisões de

com participação do

raios cósmicos na

Brasil (Physical Review

atmosfera que dão

Letters, 31 de outubro).

origem aos múons são

Os múons são partículas

10 vezes mais

elementares semelhantes

energéticas do que as

aos elétrons, mas

produzidas entre as

cerca de 200 vezes

partículas no LHC.

mais massivas.

Os resultados do

Quando os raios

experimento sugerem

cósmicos (constituídos

que o entendimento

basicamente por prótons

sobre as interações de

e núcleos leves) colidem

partículas elementares

14 | novembro DE 2016

flexível seja realmente Tela de LED flexível: 1 micrômetro de espessura e baixo consumo de energia

adotado pela indústria. Na produção do display, ocorre o desperdício de uma quantidade razoável de ouro e prata.

fotos 1 miguel boyayan 2 Mats Tiborn

2


Zika nos testículos

Do laser infravermelho para a luz verde

A epidemia de zika, que já causa pesadelos

O fósforo negro é um material com-

nas famílias devido aos

posto por átomos de fósforo dispostos

bebês nascidos com

em superfícies de espessura atômica

microcefalia, também

empilhadas uma em cima da outra.

pode afetar os homens.

Assim como o grafeno (uma folha de

Um estudo conduzido na

espessura atômica composta de átomos

3

de carbono), apresenta propriedades elétricas e mecânicas extraordinárias. Desde 2014, uma série de trabalhos tem indicado que amostras de fósforo negro

Escola de Medicina da Universidade Washington em Saint Louis, nos

Elétrons do fósforo negro combinam a energia de fótons do laser infravermelho em partículas de luz verde

Estados Unidos, mostrou em ratos que o vírus

com espessura inferior a 10 camadas

causa danos aos

atômicas exibem características ópti-

que o material emitia uma luz verde

testículos e ao epidídimo

cas excepcionais. Um novo estudo de

muito forte”, comenta Matos. Os pesqui-

(Nature, 31 de outubro).

pesquisadores do Centro de Pesquisas

sadores mostraram que os elétrons do

As consequências podem

Avançadas em Grafeno, Nanomateriais e

fósforo negro são capazes de combinar a

incluir a redução nos

Nanotecnologias da Universidade Pres-

energia de três partículas de luz (fótons)

níveis de hormônios,

biteriana Mackenzie (Mackgraphe) e da

do laser infravermelho em um único

como a testosterona,

Universidade Nacional de Singapura

fóton verde, três vezes mais energético.

e no número de

(NUS) verificou mais uma vez o poten-

Segundo Matos, a emissão altamen-

espermatozoides. A zika

cial do fósforo negro de manipular a

te eficiente dessa luz de frequência e

pode, assim, reduzir a

luz em escala nanométrica (Advanced

energia triplicadas sugere que o fósforo

fertilidade masculina,

Materials, 18 de outubro). A equipe de

negro também possa produzir ainda

além de ser transmitida

Christiano de Matos e Rafael de Oliveira,

outros efeitos semelhantes em termos

por via sexual, como já

do Mackgraphe, e José Viana Gomes, da

de mistura de fótons. Esses efeitos po-

tinha sido detectado.

NUS, disparou pulsos ultrarrápidos de

deriam ser úteis no desenvolvimento de

Resta verificar se os

laser infravermelho de alta potência em

circuitos nanofotônicos, menores e mais

resultados obtidos em

amostras de fósforo negro. “Percebemos

eficientes que os dispositivos atuais.

ratos também se aplicam a seres humanos.

3 Christiano de Matos e Henrique Ribeiro 4 ALBERTINA PIMENTEL LIMA/INPA 

Corpo de sapo tem escudo antiformiga

4

As fêmeas dos sapinhos-

de Pesquisas da

-listrados da espécie

Amazônia (Inpa). Os

Lithodytes lineatus

10 sapinhos-listrados

depositam os ovos em

depositados por

ninhos de espuma dentro

ele na entrada de

das galerias construídas

formigueiros não foram

por saúvas do gênero

atacados, enquanto

Atta. Na companhia dos

20 sapos de outras

insetos, os filhotes se

espécies levaram em

desenvolvem sem sofrer

média 20 picadas

ataques. O segredo da

(Behavioural Ecology &

normalmente não

o tratamento passaram

que permite a

convivência está numa

Sociobiology, 20 de

convive com formigas –

incólumes pelas defesas

associação inusitada,

substância que reveste

outubro). Para confirmar

com um extrato

das formigas, a não ser

em que todo o

o corpo dos anfíbios,

que o escudo era algo

da pele dos sapinhos-

quando saltavam em

desenvolvimento dos

como mostrou o trabalho

que revestia a pele,

-listrados, enquanto

cima dos insetos. Estes,

filhotes – desde o ovo

de mestrado do biólogo

Barros besuntou

outros foram molhados

mesmo assim, soltavam

até a metamorfose

André de Lima Barros

10 sapos da espécie

apenas com água.

rapidamente após a

completa – acontece

no Instituto Nacional

Rhinella major – que

Aqueles que receberam

primeira mordida. É isso

dentro do formigueiro.

Lithodytes lineatus: proteção permite desenvolvimento de filhotes dentro de formigueiro

PESQUISA FAPESP 249 | 15


capa

Risco de ocorrer secas entre 2011 e 2040 As simulações de risco futuro de ocorrência de estiagens prolongadas foram feitas com o auxílio de dois modelos

Localização dos 100 municípios mais vulneráveis

climáticos globais, o HadGEM2 ES e o Miroc5. O mapa maior é uma síntese

Alto

dos resultados dos dois modelos. Para 80% do

Baixo

território nacional, as simulações do HadGEM2 ES e do Miroc5 coincidiram. Houve discordância com relação aos municípios mais vulneráveis n HadGEM2 ES fonte Pedro Camarinha

16 | novembro DE 2016

n Miroc5


Arredores da usina de Sobradinho, Bahia: estiagens devem atingir outras partes do país nas próximas décadas

Um brasil mais vulnerável no século XXI Projeções apontam aumento do risco de desastres naturais, como enchentes, deslizamentos de terra e secas extremas, nas próximas décadas Marcos Pivetta

foto  Marcello Casal Jr /Agência Brasil

F

ora da rota dos grandes furacões, sem vulcões ativos e desprovido de zonas habitadas sujeitas a fortes terremotos, o Brasil não figura entre os países mais suscetíveis a desastres naturais. Ocupa apenas a 123ª posição em um índice mundial dos países mais vulneráveis a cataclismos. Mas a aparência de lugar seguro, protegido dos humores do clima e dos solavancos da geologia, deve ser relativizada. Aqui, cerca de 85% dos desastres são causados por três tipos de ocorrências: inundações bruscas, deslizamentos de terra e secas prolongadas. Esses fenômenos são relativamente recorrentes em zonas tropicais e seus efeitos podem ser atenuados, em grande medida, por políticas públicas de redução de danos. Nas últimas cinco décadas, mais de 10.225 brasileiros morreram em desastres naturais, a maioria em inundações e devido à queda de encostas. As estiagens duradouras, como as comumente observadas no Nordeste, são, no entanto, o tipo de ocorrência que provoca mais vítimas não fatais no país (ver Pesquisa FAPESP nº 241).

Dois estudos baseados em simulações climáticas feitos por pesquisadores brasileiros indicam que o risco de ocorrência desses três tipos de desastre, ligados ao excesso ou à falta de água, deverá aumentar, até o final do século, na maioria das áreas hoje já afetadas por esses fenômenos. Eles também sinalizam que novos pontos do território nacional, em geral adjacentes às zonas atualmente atingidas por essas ocorrências, deverão se transformar em áreas de risco significativo para esses mesmos problemas. “Os impactos tendem a ser maiores no futuro, com as mudanças climáticas, o crescimento das cidades e de sua população e a ocupação de mais áreas de risco”, comenta José A. Marengo, chefe da Divisão de Produtos Integrados de Pesquisa e Desenvolvimento do Centro Nacional de Monitoramento e Alerta de Desastres Naturais (Cemaden), órgão ligado ao Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), que coordenou as simulações climáticas. Parte dos resultados das projeções já foi divulgada em congressos e rePESQUISA FAPESP 249 | 17


Enchente de 2014 em União da Vitória (SC): Sul deverá ser palco de mais inundações

latórios, como o documento federal enviado em abril deste ano à Convenção-Quadro das Nações Unidas sobre Mudança do Clima (UNFCCC, na sigla em inglês), e serve de subsídio para direcionar as estratégias do recém-criado Plano Nacional de Adaptação à Mudança do Clima. Mas dados mais detalhados das simulações vão sair em um artigo científico já aceito para publicação na revista Natural Hazards e em trabalhos destinados a outros periódicos. expansão das secas

De acordo com os estudos, as estiagens severas, hoje um problema de calamidade pública quase sempre associado a localidades do Nordeste, deverão se intensificar também no oeste e parte do leste da Amazônia, no Centro-Oeste, inclusive em torno de Brasília, em pontos dos estados do Sudeste e até no Sul. “Embora parte do Nordeste seja naturalmente mais árido, a seca não se deve apenas ao clima”, afirma o engenheiro civil Pedro Ivo Camarinha, pesquisador do Cemaden. “A vulnerabilidade da região se dá também por uma série de problemas de ordem socioeconômica, de uso do solo e devido à baixa capacidade de adaptação aos impactos das mudanças climáticas.” A carência de políticas públicas específicas para enfrentar os meses de estiagem, o baixo grau de escolaridade da população e a escassez de recursos são alguns dos fatores citados pelos autores como determinantes para aumentar a exposição de parcelas significativas do Nordeste a secas futuras. A vulnerabilidade a inundações e enxurradas tende a se elevar em 30% nos três estados do Sul, na porção meridional do Mato Grosso e em boa parte da faixa litorânea do Nordeste, segundo um cenário projetado para 2100 pelas simulações climáticas. No estado de São Paulo, o mais 18 | novembro DE 2016

populoso do país, a intensificação da ocorrência de enchentes-relâmpago, aquelas originadas após poucos minutos de chuvas torrenciais, deverá ser mais modesta, da ordem de 10%, mas ainda assim significativa. No Brasil Central, a vulnerabilidade a enchentes deverá cair, até porque as projeções indicam menos chuvas (e mais secas) em boa parte da região. “Os modelos divergem sobre o regime futuro de chuvas no oeste da Amazônia”, explica Marengo, cujos estudos se desenvolveram em parte no âmbito de um projeto temático da FAPESP. “Um deles aponta um aumento expressivo na frequência de inundações enquanto o outro sinaliza um cenário de estabilidade ou de leve aumento de enchentes.” O padrão de deslizamento de terra, associado à ocorrência de chuvas intensas ou prolongadas por dias, deverá seguir, grosso modo, as mesmas tendências verificadas com as inundações, ainda que em um ritmo de crescimento mais moderado. O aumento na incidência de quedas de encostas deverá variar entre 3% e 15% nos lugares hoje já atingidos por esse tipo de fenômeno. O destaque negativo recai sobre a porção mais meridional do país. As áreas sujeitas a deslizamentos no Rio Grande do Sul, em Santa Catarina e no Paraná deverão se expandir e abarcar boa parte desses estados até 2100. No Sudeste, a região serrana na divisa entre São Paulo, Rio de Janeiro e Minas Gerais deverá se tornar ainda mais vulnerável a esse tipo de desastre. “Precisamos implementar com urgência políticas públicas nas regiões mais vulneráveis a inundações e deslizamentos de terra”, afirma o geógrafo Nathan Debortoli, coautor dos estudos, que hoje faz estágio de pós-doutorado na Universidade McGill, do Canadá. “A maior exposição às mudanças climáticas pode tornar a sobrevivência inviável em algumas regiões do país.”


Mais inundações e deslizamentos de terra Risco atual

Projetado para 2070-2100

(de 1960 a 1990)

INUNDAÇõES Vulnerabilidade aumenta 30% nos estados do Sul, na porção meridional de Mato Grosso e em parte do Nordeste. Em São Paulo, risco se eleva em 10%

n Muito alto n Alto n Médio n Baixo Muito baixo

DESLIZAMENTOS Risco sobe entre 3% e 15% nas regiões serranas, como a divisa de São Paulo, Rio de Janeiro e Minas Gerais, atingindo lugares onde hoje costumam ocorrer desastres

n Muito alto n Alto n Médio n Baixo Muito baixo

Fonte Nathan S. Debortoli, Cemaden e hadgem2 es

Para gerar as projeções de risco futuro de desastres, foram usados dois modelos climáticos globais, o HadGEM2 ES, desenvolvido pelo Centro Hadley, da Inglaterra, e o Miroc5, criado pelo centro meteorológico japonês. Acoplado a eles, rodou ainda o modelo de escala regional Eta, desenvolvido pelo Instituto Nacional de Pesquisas Espaciais (Inpe). Trabalhando dessa forma, os autores conseguiram avaliar os padrões predominantes do clima futuro que estão associados à ocorrência de desastres naturais em áreas de, no mínimo, 400 quilômetros quadrados, um quadrado com os lados de 20 quilômetros de extensão.

foto  Arnaldo Alves / ANPr

Mais convergências que divergências

Os resultados fornecidos pelos dois modelos climáticos são semelhantes para cerca de 80% do território nacional. Isso dá robustez às projeções. O modelo inglês é usado há mais de 10 anos em simulações feitas por climatologistas brasileiros, que têm boa experiência acumulada com ele. O japonês começa agora a ser empregado com mais frequência. Há, no entanto, algumas discordân-

cias nas simulações de longo prazo geradas pelos dois modelos. A lista, por exemplo, dos 100 municípios mais vulneráveis a episódios de seca nas próximas três décadas fornecida pelas simulações do HadGEM2 ES é diferente da obtida com o Miroc5. As cidades de maior risco ficam, segundo o modelo japonês, em quatro estados do Nordeste: Rio Grande do Norte, Paraíba, Pernambuco e Alagoas. As fornecidas pelo modelo inglês se encontram, em sua maioria, em outros estados do Nordeste e também no Centro-Oeste e no norte de Minas Gerais. “Com exceção desses exemplos extremos, as projeções dos dois modelos coincidem em grande medida”, comenta Camarinha. No caso dos fenômenos hídricos, a discrepância mais significativa diz respeito ao regime de chuvas na Amazônia, em especial nos estados do oeste da região Norte (Acre, Amazonas e Rondônia). O HadGEM2 ES projeta mais chuvas — portanto, risco aumentado de inundações e deslizamentos — e o Miroc5, menos. “Prever as chuvas na Amazônia ainda é um desafio para os modelos”, afirma Marengo. PESQUISA FAPESP 249 | 19


Para quantificar o risco futuro de ocorrer desastres naturais em uma área, é preciso ainda incluir nas simulações, além das informações climáticas, uma série de dados locais, como as condições econômicas, sociais e ambientais dos mais de 5.500 municípios brasileiros e de sua população. Ao final dos cálculos, cada área é classificada em um de cinco níveis de vulnerabilidade: muito baixa, baixa, média, alta e muito alta. “O modelo escolhido, a qualidade dos dados de cada cidade e o peso que se dá a cada variável influenciam no índice final obtido”, explica Camarinha.

O Risco atual de ocorrer desastres naturais no país

O PESO DO HOMEM

Além da suscetibilidade natural a secas, enchentes, deslizamentos e outros desastres, a ação do homem tem um peso considerável em transformar o que poderia ser um problema de menor monta em uma catástrofe. Os pesquisadores estimam que um terço do impacto dos deslizamentos de terra e metade dos estragos de inundações poderiam ser evitados com alterações de práticas humanas ligadas à ocupação do solo e a melhorias nas condições socioeconômicas da população em áreas de risco. Moradias precárias em lugares inadequados, perto de encostas ou em pontos de alagamento; infraestrutura ruim, como estradas ou vias que não permitem acesso fácil a zonas de grande vulnerabilidade; falta de uma defesa civil atuante; cidades superpopulosas e impermeabilizadas, que não escoam a água da chuva – todos esses fatores não naturais, da cultura humana, podem influenciar o desfecho final de uma situação de risco. “Até hábitos cotidianos, como não jogar lixo na rua, e o nível de solidariedade e coesão social de uma população podem ao menos mitigar os impactos de um desastre”, pondera a geógrafa Lucí Hidalgo Nunes, do Instituto de Geociências da Universidade Estadual de Campinas (IG-Unicamp). “Obviamente, há desastres naturais tão intensos, como os grandes terremotos no Japão, que nem mesmo uma população extremamente preparada consegue evitar. Mas a recuperação nos países mais estruturados é muito mais rápida.” Em seus trabalhos, os pesquisadores adotaram um cenário global até o final do século relativamente pessimista, mas bastante plausível: o RCP 8.5, que consta do quinto relatório de avaliação do Painel Intergovernamental de Mudanças Climáticas (IPCC). Esse cenário é marcado por grandes elevações de temperatura e recrudescimento tanto de chuvas como de secas intensas. No caso do Brasil, as projeções indicam que o país deverá ficar ao menos 3 ºC mais quente até o fim do século e que as chuvas podem aumentar até 30% no Sul-Sudeste e diminuir até 40% no Norte-Nordeste. As mudanças climáticas devem tornar mais frequentes os chamados 20 | novembro DE 2016

n Muito alto n Alto n Médio n Baixo n Muito baixo Fonte Drib/Lutiane Queiroz de Almeida

eventos extremos, que podem se manifestar de diferentes formas: secas prolongadas, picos de temperatura, tempestades mais intensas, chuvas prolongadas por vários dias, ressacas mais fortes. Essas ocorrências aumentam o risco de desastres. “Não é, por exemplo, só uma questão da quantidade de chuva que cai em um lugar”, explica Marengo. “Às vezes, a quantidade pode até não mudar, mas a distribuição da chuva ao longo do tempo se altera e essa mudança pode gerar mais desastres.” Numa cidade como São Paulo, chover 50 milímetros no decorrer de três ou quatro dias dificilmente causa danos. Mas, se a pluviosidade se concentrar em apenas uma tarde, provavelmente ocorrerão alagamentos. Para testar o grau de confiabilidade do índice de vulnerabilidade, os pesquisadores brasileiros compararam os resultados obtidos pelos modelos com os registros reais de desastres do passado recente (1960 a 1990), compilados pelo Atlas brasileiro de desastres naturais. Dessa forma, foi possível ter uma boa ideia se os modelos eram, de fato, úteis para prever as áreas onde ocorreram inundações, deslizamentos de terra e secas no Brasil durante as últimas décadas. Os dados do atlas também serviram de termo de comparação, como base presente para se quantificar o aumento ou a diminuição da vulnerabilidade futura de uma área a desastres. Para estiagem, as simulações do Miroc5 se mostraram geralmente mais confiáveis na maior parte do território nacional. No caso das enchentes e deslizamentos de terra,


Deslizamento em Nova Friburgo (RJ) em 2011: alta vulnerabilidade a desastres

1

Almeida produziu índices de vulnerabilidade para os principais tipos de desastre em todo o território nacional e um número final, o Drib, que indicaria o risco geral de um lugar para a ocorrência de eventos extremos. Chamou a atenção a classificação de praticamente todo o território do Amazonas e do Acre e de metade do Pará como áreas de risco muito elevado, com populações socialmente vulneráveis e expostas a inundações. Entre os 20 municípios com pior desempenho no índice Drib, 12 são da região Norte. Os demais são do Nordeste (seis) e do Sudeste (dois). “Esses municípios têm pequenas populações, entre 3 mil e 25 mil habitantes, alta exposição a desastres e baixa capacidade adaptativa”, comenta o geógrafo da UFRN. “O estudo aponta que apenas 20% dos municípios brasileiros estão bem preparados para mitigar os impactos e reagir imediatamente a eventos extremos.” Em geral, essa é uma característica das regiões Sul e Sudeste. Tragédias que se repetem

fotos  Marlene Bergamo / Folhapress

Eventos extremos, como secas e enchentes, devem se tornar mais comuns com as mudanças climáticas o HadGEM2 ES forneceu previsões mais precisas para áreas subtropicais e montanhosas, no Sul e Sudeste, e o Miroc5, para o resto do país. A Amazônia, como já destacado, foi o alvo de discórdia. Um trabalho com metodologia semelhante à empregada pelos estudos de Marengo e de seus colaboradores, mas com enfoque apenas na situação atual, sem as projeções de aumento ou diminuição de risco futuro, foi publicado em abril no International Journal of Disaster Risk Reduction. Em parceria com pesquisadores alemães, o geógrafo Lutiane Queiroz de Almeida, da Universidade Federal do Rio Grande do Norte (UFRN), calculou um conjunto de índices que apontaria o risco de ocorrer desastres naturais em cada município do país. Denominado Drib (Disaster risk indicators in Brazil), o indicador é uma adaptação do trabalho feito em escala mundial pela Universidade das Nações Unidas e instituições europeias (ver mapa e texto às páginas 22 e 23). Além de levar em conta dados sobre o risco de secas, enchentes e deslizamentos de terra, o Drib inclui em seu índice a exposição dos municípios costeiros ao aumento do nível do mar. Para esse tipo de problema, as cidades que se mostraram em maior perigo foram Vila Velha e Vitória, no Espírito Santo, Santos (SP) e Salvador (BA).

Muito antes das discussões atuais sobre as mudanças climáticas, os cataclismos naturais despertam interesse no homem. Os desastres são um capítulo trágico da história da humanidade desde tempos imemoriais. Alegado castigo divino, o mítico dilúvio global que teria acabado com a vida na Terra, com exceção das pessoas e animais que embarcaram na arca de Noé, é uma narrativa presente no Gênesis, primeiro livro do Antigo Testamento cristão e do Tanach, o conjunto de textos sagrados do judaísmo. Supostas inundações gigantescas e catastróficas, antes e depois da publicação do Gênesis, aparecem em relatos de várias culturas ao longo dos tempos, desde os antigos mesopotâmicos e gregos até os maias centro-americanos e os vikings. As antigas cidades romanas de Pompeia e Herculano foram soterradas pela lava do monte Vesúvio na famosa erupção de 79 d.C. e, estima-se, cerca de 2 mil pessoas morreram. Dezessete anos antes, essa região da Campania italiana já havia sido afetada por um terremoto de menor magnitude. “Costumamos dizer que, se um desastre já ocorreu em um lugar, ele vai se repetir, mais dia ou menos dia”, comenta Lucí. n

Projeto Assessment of impacts and vulnerability to climate change in Brazil and strategies for adaptation option (nº 2008/58161-1); Modalidade Auxílio à Pesquisa – Programa de Pesquisa sobre Mudanças Climáticas Globais – Temático (Acordo FAPESP/CNPq – Pronex); Pesquisador responsável José A. Marengo (Cemaden); Investimento R$ 812.135,64.

Artigos científicos DEBORTOLI, N. S et al. An index of Brazil’s vulnerability to expected increases in natural flash flooding and landslide disasters in the context of climate change. Natural Hazards. No prelo. ALMEIDA, L. Q. et al. Disaster risk indicators in Brazil: A proposal based on the world risk index. International Journal of Disaster Risk Reduction. 17 abr. 2016.

PESQUISA FAPESP 249 | 21


Um mapa do risco no mundo Com exceção do Japão, os países pobres e em desenvolvimento são os mais vulneráveis a desastres naturais

O Brasil apresenta risco baixo de sofrer desastres naturais, segundo a edição de 2016 do World Risk Report, elaborado pela Universidade das Nações Unidas e instituições alemãs

Passagem do furacão Matthew em outubro no Haiti, país que está na categoria mais elevada de vulnerabilidade a desastres: 1.300 mortes e 35 mil desabrigados

22 | novembro DE 2016


O índice lista os países em ordem decrescente de vulnerabilidade e os divide em cinco categorias. Além das condições naturais, o grau de desenvolvimento e a capacidade de lidar com os desastres influenciam na classificação final

n n n n n n

Muito alto Alto Médio Baixo Muito baixo Sem dados

Dois arquipélagos do Pacífico lideram o índice mundial de risco de desastres. Cenário de ciclones e terremotos, além de sofrer com a elevação do nível do mar, Vanuatu ocupa o primeiro lugar. Tonga aparece em segundo

Fonte  World Risk Report 2016

foto  AFP PHOTO / LOGAN ABASSI / MINUSTAH

P

or estar sujeito a fortes terremotos e inundações causadas por tsunamis, o Japão é o único país desenvolvido que apresenta risco muito alto de ser afetado por cataclismos, segundo a edição de 2016 do World Risk Report, publicação organizada pela Universidade das Nações Unidas, agência alemã Alliance Development Works e Universidade de Stuttgart. A nação asiática figura na 17ª posição do índice mundial de risco a desastres, que classifica 171 países em função da possibilidade de serem alvo de cinco tipos de eventos extremos: secas, inundações, ciclones ou tempestades, terremotos e aumento do nível do mar. O índice lista as áreas do globo em ordem decrescente de vulnerabilidade a desastres e os separa em cinco categorias. Cada uma delas é composta por 20% do total de países, que são classificados como sendo de risco muito alto, alto, médio, baixo ou muito baixo. O indicador final é calculado por meio da análise de 28 parâmetros geoclimáticos e socioeconômicos, como a quantidade de pessoas expostas a desastres, a

renda e a educação da população, a capacidade de mitigar o impacto de eventos extremos e de se adaptar a mudanças. Vanuatu, um pequeno arquipélago do Pacífico sul distante 1.700 quilômetros a leste da Austrália, com 250 mil habitantes, é o país mais arriscado do mundo, o número 1 do índice. Está sujeito a terremotos, ciclones e pode ser coberto pelas águas se o nível do mar aumentar. Isso sem contar o vulcanismo, que não entra no cálculo do índice. O segundo lugar é ocupado por Tonga, um arquipélago da Polinésia, e o terceiro, pelas Filipinas. O Haiti, onde o furacão Matthew matou 1.300 pessoas e desalojou 35 mil em outubro, aparece em 21º lugar da lista. O Brasil ocupa a 123ª posição e está classificado na categoria dos países de baixo risco, como os Estados Unidos, a Itália, a Argentina e o Reino Unido. “Nenhum índice baseado em desastres naturais é perfeito”, comenta Lucí Hidalgo Nunes, da Unicamp. “De acordo com as variáveis usadas e o peso dado a elas, as classificações mudam. Mas, certamente, o Brasil não é um dos países em pior situação.” n Marcos Pivetta PESQUISA FAPESP 249 | 23


24 | novembro DE 2016


entrevista José Augusto Penteado Aranha

O engenheiro das ondas Estudos sobre a dinâmica das águas marinhas e estruturas flutuantes resultaram em soluções que permitem a extração de petróleo em alto-mar Marcos de Oliveira  | 

idade 67 anos especialidade Mecânica dos fluidos e hidrodinâmica marítima formação Graduação em engenharia civil na Escola Politécnica da Universidade de São Paulo (Poli-USP), em 1971. Mestrado e doutorado no Instituto de Tecnologia de Massachusetts (MIT), de 1973 a 1978 instituição Poli-USP produção científica 30 artigos, 2 livros (ainda não publicados). Orientou 12 mestrados e 5 doutorados

retrato 

Léo Ramos

F

ormado em engenharia civil, o paulistano José Augusto Penteado Aranha trilhou durante 40 anos o caminho da hidrodinâmica marinha, estudando as ondas, correntes marítimas e suas relações com navios, plataformas de petróleo e tubulações que ligam essas estruturas aos poços no fundo do mar. Tomou gosto pela área quando fez mestrado e doutorado no Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos. “Mecânica dos fluidos e hidrodinâmica marinha são campos abertos que têm mais porosidade com outras áreas”, explica Aranha. Liderou grupos no Instituto de Pesquisas Tecnológicas (IPT), entre 1978 e 1989, e depois na Escola Politécnica da Universidade de São Paulo (Poli-USP). Ele esteve à frente dos estudos sobre o comportamento e relação das ondas com as plataformas, navios e risers, tubulações que levam o petróleo e o gás até a superfície. Contribuiu assim para a Petrobras explorar petróleo em profundidades maiores que 400 metros (m), em meados da década de 1980, atingindo até as águas ultraprofundas a mais de 1.000 m a partir da lâmina d’água, nos anos 1990. Uma capacitação que continuou no pré-sal a partir de 2008. Aranha tem se dedicado ao desenvolvimento de um método de análise que permita estimar a vida útil dos risers de uma forma consistente e econômica. A relação entre correntes e risers leva à formação alternada de vórtices, que geram tensões no sistema e podem levar à ruptura das tubulações. Quando isso ocorre, petróleo e gás vazam no mar, trazendo grandes prejuízos ambientais e financeiros. Nos seus estudos sobre modelagem matemática desenvolveu uma fórmula para calcular a interação das ondas e correntes PESQUISA FAPESP 249 | 25


marítimas com plataformas de petróleo e navios que ficou conhecida como Fórmula Aranha. Ela é usada para calcular a deriva e o amortecimento de ondas em águas profundas. Embora com a equação incorporada aos manuais da ciência e com a contribuição para a indústria petrolífera, Aranha não gosta muito de falar de si mesmo. “É muito difícil, sem cair em coisas que são ridículas”, diz Aranha. Casado com a artista plástica Carmen Sylvia Guimaraes Aranha, do Museu de Arte Contemporânea (MAC) da USP, com dois filhos, Aranha está prestes a se aposentar, aos 67 anos. Ele pretende continuar os estudos sobre a dinâmica das ondas e correntes marítimas. Nos últimos anos tem feito várias críticas ao ensino da engenharia. Não concorda com um aprendizado focado no utilitarismo, defende uma visão ampla em que o aluno possa descobrir as formas de pensar que levaram à construção da ciência. O senhor se formou em engenharia civil e se dedicou à hidrodinâmica marinha? São áreas distantes? Eu era um estudante desmotivado na Poli. No quarto ano concluí que continuando naquela toada meu destino seria um serviço burocrático. Então comecei a estudar o que sempre gostei, a parte mais teórica da matemática e da física. No início me interessei pelos modelos matemáticos em estruturas e, quando cheguei aos Estados Unidos para o mestrado, me dei conta de que a mecânica dos fluidos era um campo mais interessante por ser mais aberto, por ter mais porosidade com outras áreas.

A Fórmula Aranha está incorporada ao estudo das correntes marítimas e corpos flutuantes

Mecânica dos fluidos é uma área também da física, curso de graduação que o senhor também cursou? É da física aplicada. Tem interfaces grandes, muitos físicos trabalham com mecânica dos fluidos, justamente porque é um campo ainda aberto. Não concluí a física. Foram dois anos à noite, em paralelo com a engenharia, porque naquele tempo podia. Também estava ciente dos desafios da Petrobras. Ao longo de minha estadia no MIT eu já tinha claro que uma das áreas potenciais do Brasil seria a exploração do petróleo.

formei em 1971, e digo hoje para meus alunos que, apesar do clima político adverso, o país na época acreditava em si e as possibilidades de trabalho eram muito mais abertas que as atuais. Quando eu fui fazer a entrevista no IPT, o entrevistador perguntou: “O que você quer fazer no IPT?”. “Eu quero viajar, estudar lá fora.” E não fui colocado de lado por isso. Porque existia uma percepção de que precisava mandar gente para fora. O IPT tinha um programa de investir nos pesquisadores e o único pré-requisito era ter completado o mestrado. Só que eu não queria fazer mestrado aqui. Viajei com minhas economias pessoais que eram suficientes para passar seis meses nos Estados Unidos. Fui convicto de que, ao fim, o IPT iria me financiar. O IPT financiou os quatro anos de doutoramento; no quinto ano trabalhei como pesquisador no MIT, enquanto a Carmen terminava parte de seu doutorado na Universidade de Boston. Foi um problema, porque eles acharam que eu não queria voltar, mas isso nunca passou pela minha cabeça. Nunca pensei em morar nos Estados Unidos e me tornar um estrangeiro lá.

O senhor se formou e foi contratado pelo IPT? Eu estava no IPT, e o tempo era outro. Me

O senhor formou um grupo que deu uma base científica para a engenharia naval do IPT?

26 | novembro DE 2016

Não. Às vezes a minha irmã descrevia meu pai para terceiros, e ele dizia: “Mas isso é outro pai, não sou eu”. De vez em quando os amigos nos descrevem e a gente não se reconhece na descrição, é como se fosse de outro que eles estão a falar. É impossível fazer qualquer coisa se não existir um grupo trabalhando junto. O senhor ficou um ano no Inpe (Instituto Nacional de Pesquisas Espaciais), não é? Em que ano foi? Foram seis meses em 1987, com duas licenças-prêmios que eu tinha. Eles estavam com problemas estruturais lá na construção do satélite e fui convidado. Eram problemas complicados, mas tinha um professor da Poli, o Gaspar Ricardo, que era um engenheiro muito competente, e ele já havia encontrado a solução que se buscava. Era sobre a órbita de satélites? Foi no departamento de engenharia orbital, não me recordo do nome correto, mas relacionado com a estrutura física do satélite, porque existiam vibrações e uma série de coisas desse tipo, então era um trabalho de engenharia mesmo. Era o primeiro satélite brasileiro, mas depois foi desmontado, eu não sei como ficou. Mais tarde fui indicado para o conselho da Agência Espacial Brasileira. Na realidade, teve até um fato curioso, porque como eu tinha um título de PhD pelo MIT fui sondado para ser diretor do Inpe. Mas não me senti à vontade para aceitar. Eu não era da área e acho que não teria a liderança necessária. Depois do Inpe o senhor voltou para a USP? Em tempo integral, e fui para o Departamento de Engenharia Naval, e foram anos pessoal e profissionalmente muito bons. E o senhor liderou outro grupo na engenharia naval, não é? Participei, com outras pessoas, de alguns projetos importantes. Eu era chefe de departamento quando começaram a fazer o tanque de provas numérico [sistema computacional inaugurado em 2002 para simulação do comportamento de plataformas em alto-mar]. A Petrobras, que financiou a obra, achava que eu deveria ser o chefe do tanque, mas não aceitei. Não era uma questão de competência técnica, mas de estilo mesmo, precisava


arquivo Pessoal

ro para eventuais acidentes: o prêmio do seguro é tanto maior quanto mais impreciso for o cálculo para demonstrar que o sistema funciona de forma correta. E a Petrobras conseguiu relevância nessa área. No nível de produção de petróleo e geo­ física é uma empresa cientificamente muito considerada. Eu duvidava disso, mas participei de alguns workshops com o pessoal de fora, e eles consideravam muito a Petrobras nessas áreas.

Aranha, em novembro de 1973, quando fazia doutorado no MIT, nos Estados Unidos

ser uma pessoa de muito contato político e eu não gosto dessa atividade, embora a ache essencial. Ao longo de minha carreira, inclusive no Inpe, parte de minha contribuição institucional – se eu posso dizer que houve – foram as minhas ausências. Foi não aceitar algumas coisas que eu sabia que não iria gostar. Na parte de prospecção, como foi seu contato com a Petrobras? Como o senhor entrou na área do petróleo? No IPT já existia um contato grande com a Petrobras. Durante a década de 1980, era o IPT que liderava a área de engenharia naval no país, mais do que a Coppe [Coordenação dos Programas de Pós-graduação e Pesquisa em Engenharia da Universidade Federal do Rio de Janeiro (UFRJ)]. Quando vim para a USP em 1989, e também havia algum contato com a empresa, começamos a reforçar essa parceria e conversamos com a Petrobras para que ela mantivesse um fluxo contínuo de pesquisas, para desenvolvermos capacitação no Brasil. Eles de certa forma financiaram o departamento com cerca de R$ 1 milhão por ano, na moeda de hoje, para vários projetos de pesquisa. Qual era a demanda da Petrobras ao procurar a academia? O problema maior era com os sistemas de produção flutuando em mar aberto e também os projetos de risers, que representam quase um terço do orçamento de uma plataforma semissubmersível. Tem desgaste, problemas de interação com a corrente marítima, com movimentos dos corpos flutuantes [plataformas e siste-

mas semissubmersíveis], além de navios FPSO [floating, production, storage and offloading] que fazem armazenamento e descarga de petróleo. São coisas muito grandes oscilando nas ondas e não só o riser, como o próprio sistema flutuante precisa ficar ali, ancorado. Outro aspecto são os navios que chegam ao largo e operam com a plataforma: é preciso saber o movimento relativo entre ambos, as ondas… Em que parte entra a matemática? Na modelagem matemática dos sistemas e na conexão entre as partes. Modelagem aqui significa traduzir em equações uma realidade física. Medir as ondas e as correntes marítimas? Existiam algumas informações, mas havia a necessidade de fazer modelos que representassem aquilo e verificávamos os modelos com testes no tanque de ondas do IPT. Foi uma época interessante. Em 1998 foi instalado o primeiro riser? Como foi essa história? Foi o primeiro riser rígido porque eles eram até então flexíveis e inadequados para grandes profundidades. Aí tem um problema de tempo de vida, fadiga, por causa das oscilações do mar e da própria corrente marítima. Geralmente, essa oscilação não rompe o riser, mas tem um desgaste por fadiga grande. É como pegar um arame e começar a entortar, daqui a pouco ele rompe. Então é preciso quantificar bem esse tipo de coisa porque, além de razões ambientais e de operação, há também a questão do segu-

O senhor chegou a fazer algumas sugestões para a Petrobras, para o Procap (Programa de Capacitação Tecnológica em Águas Profundas)? Fizemos uma coisa que não é reconhecida. Eu ainda estava no IPT quando um grupo de lá – eu estava entre eles – queria fazer um planejamento estratégico na área de pesquisa para a Petrobras. Elencamos uma série de projetos, marcamos reunião com o presidente do Cenpes [Centro de Pesquisas da Petrobras], Guilherme Estrella, e eles ficaram impressionados com o projeto. Aí morreu um pouco o assunto, e depois veio o Procap, em 1986, e de certa forma uma articulação de políticas tecnocientíficas dentro da Petrobras. O que vocês propuseram exatamente? Um amplo plano de pesquisa. Projetos definidos, na área de engenharia naval principalmente. Também em plataformas, estudos dentro de um tempo alargado, mais de cinco anos, para poder realmente criar coisas, porque não adiantava ter um projeto de seis meses, contratar pessoas e daqui a pouco descontratar. A ideia do nosso lado era essa, como também ir mais para a área de pesquisa do que de prestação de serviços. Achávamos que teríamos um retorno mais interessante. A receptividade foi muito boa dentro da Petrobras, mas demorou, e depois veio o Procap, e não fizeram citação nenhuma ao nosso trabalho. O pré-sal foi uma consequência da competência tecnológica da empresa? A Petrobras tem áreas muito competentes, como a área de geofísica, e tem um percentual grande de acerto de furos na prospecção de petróleo. Tem também um pessoal muito competente. Lembro de um workshop que eu fui em Angra dos Reis. PESQUISA FAPESP 249 | 27


Lá estavam noruegueses, americanos, franceses e ingleses. Tinha um pessoal da Petrobras, e muito pouco da academia. Havia uma questão básica relativa a cabos de amarração que eles estavam utilizando, que eram todos trançados, e não se sabia se eles durariam os 20 anos projetados. Um norueguês, em sua palestra, discorreu sobre ensaios de um fio e não era claro como extrapolar o comportamento do fio para o trançado. Após algumas discussões, o engenheiro José Formigli, que depois virou diretor da Petrobras, falou para o público: “Nós já resolvemos esse problema: fizemos as contas, e, em vez de 20 anos, nós vamos trocar o cabo de cinco em cinco e pronto”. E todo mundo ficou olhando, perplexo com uma solução tão simples. Depois até brinquei com o Formigli: “É verdade, quando a situação conceitual é caótica somos imbatíveis”. Mas pensei também que o norueguês poderia fazer os testes e desenvolver depois um fio que iria compor um cabo inovador e aí venderia o produto no mundo todo. Não sei se ele conseguiu, mas aposto que ainda ficou um bom tempo testando o fio. O que é a Fórmula Aranha? Como ela surgiu e qual a repercussão? Não foram necessários muitos cálculos, só acertar alguns conceitos físicos já conhecidos. Existe certo tipo de interação entre onda e corrente marítima que apresenta uma diminuição no movimento ou um aumento, dependendo da direção relativa, que deve ser contabilizado quando for necessário fazer análise desses corpos. O fenômeno havia sido descoberto experimentalmente. Eu imaginei certa situação física e a partir dela inferi que dava para ter uma fórmula fechada dependente do coeficiente de deriva calculado rotineiramente. Mostrei que a fórmula inferida era matematicamente exata no contexto teórico subjacente e, mais tarde, a Petrobrás financiou um experimento no IPT que referendou o resultado. Aí virou a fórmula do Aranha, Aranha’s formula. Eu achei teses, citações fora do Brasil inclusive, que têm a sua fórmula como objeto de estudo. Ficou de conhecimento público. Publiquei em 1994 e está incorporada na área oceânica, no estudo de interação das correntes marítimas e corpos flutuantes. Gostei desse trabalho, acho que foi o mais original que fiz. 28 | novembro DE 2016

Por que é interessante o estudo das ondas? Acho muito interessante, por exemplo, pegar uma equação como a da refração, que explica por que as ondas do mar chegam paralelas à costa, e saber que ela fornece, de um lado, a Lei de Snell do século XVII e de outro, a equação de Schrödinger da mecânica quântica do século XX. Eu acho importante ter essa visão mais panorâmica, de uma teoria que não se esgota em si. A engenharia trata de muitos problemas interessantes, mas muitas vezes tão focados que se esterilizam. O sabor do saber não é muito cuidado nas engenharias. Qual é o motivo disso? As escolas de engenharia, particularmente no Brasil, ainda atendem demandas específicas, tanto é que a área de pesquisa na engenharia brasileira tem uma interface grande com a prestação de serviços. Nós vivemos uma época difícil, em que o pensamento saiu de moda: hoje interessam fatos, fotos e muita informação. Hipóteses e conjecturas são coisas que ficaram em segundo plano e, no entanto, dizia Novalis que “as hipóteses são como redes, só quem as lança colhe alguma coisa”, uma frase quase incompreensível hoje em dia. Hipóteses e conjecturas não desapareceram, apenas saíram de moda e acho que um dia ainda vão voltar. Falta um olhar mais científico? A ciência é, em larga medida, um discurso sobre a ordem, mas essa ordem, na maioria dos casos, não se mostra de forma evidente, há que buscá-la no recôndito dos fenômenos. Essa busca é ignorada nas escolas de engenharia, o que lá importa é o resultado final. O Teorema de Pitágoras não é ensinado no curso fundamental porque o estudante vai ser agrimensor, então se ensina um pouco de Platão sem ele saber que está a aprender sobre Platão. Mas a maneira de ensinar é completamente equivocada, o teorema acaba sendo um fim em si e o aluno, ao invés de brincar com triângulos, a imaginação e o rigor da lógica, é instado a memorizar a demonstração, porque é isso que será avaliado. Os alunos têm um posicionamento crítico? Falta da escola. Antes de ser uma escola de engenharia, deveria ser uma escola.

Os entendidos afirmam existir duas questões na educação: uma é transmitir conhecimento, e a outra, que todo mundo proclama em prosa e verso e logo se transforma em algo operacional, é a emancipação do aluno. Eu acho – e esse é o ponto que eu discuto, mas não com muito sucesso – que a emancipação é tecida com os fios da trama da descoberta, e não com a descoberta em si. Na minha percepção, não interessa saber que massa atrai massa: o que interessa é saber como, de Copérnico até Newton, se chegou a essa trama e de que maneira isso se tornou um pensamento magistral. Copérnico era um cônego e, em face da confusa órbita de Marte vista da Terra, ficou espremido entre dois dogmas da escolástica: a ordem e o geocentrismo. De forma intuitiva, ele escolheu a ordem que não é evidente a priori porque deslocou o centro para o Sol a partir de um raciocínio simples: o Sol descreve um círculo quando visto da Terra e nosso planeta também descreve um círculo em relação ao Sol, então é uma órbita ordenada. Depois veio Kepler, Galileu, Newton e essa foi a gênese da física. A sua formação foi diferente? Não foi diferente, talvez tenha sido mais crítica. É comum ouvir na engenharia mecânica que “engenheiro tem que saber o que é bomba hidráulica”. Mas por quê? Por que entupir a mente do aluno com ábacos e cálculos se ao primeiro balanço da cabeça tudo vai pelos ares, se esquece tudo? Se o aluno for bem formado em um mês ele aprende o que se ensina na escola sobre esse tema. A sensação que eu tenho de vez em quando é que a escola de engenharia – embora sempre queira mudar – não consegue sair do mesmo lugar. Eu ouso dizer que a escala de tempo de mudança na engenharia é geológica: é muito lenta. Nós vivemos em uma cultura que foi forjada por pessoas com demandas de outro tempo e necessárias ali. A engenharia no Brasil, na década de 1940, era quase como um kit de sobrevivência para um escoteiro, porque o engenheiro precisava sair para o mato, saber um pouquinho de hidráulica, de eletricidade, de construção etc. Precisava saber, mas isso passou. Como deveria ser hoje? Ter informações articuladas e conseguir fazer relações inteligentes, sinapses com


outros campos. Nas escolas há um monte de disciplinas que não conversam. É impossível uma mente humana normal sair de uma aula de gestão, a próxima ser mecânica quântica, a outra logística, depois álgebra linear, projeto de parafuso... e tudo ser ensinado como essencial. Como estruturar um pensamento? Eu li um artigo do alemão Husserl, da fenomenologia, que é muito interessante. Imagine um cubo de madeira. Não tem coisa mais concreta que isso e, no entanto, nós nunca o vimos por inteiro: é o contínuo movimento do olhar e a compatibilização dessas diferentes vistas que forma o “conceito de cubo”. Se isso é verdade para um cubo de madeira, imagine para um pensamento mais abstrato! É preciso passear pela coisa, construir, ver pelo avesso, pelo lado. A formatação de uma cultura – que não é erudição, mas aquilo que fica depois que a informação se perde no esquecimento – exige uma repetição de temas em áreas conexas para que o olhar – o pensamento – passeie pelos fenômenos, que essas diferentes vistas sejam compatibilizadas e sintetizadas em um conceito que quando aparece é uma descoberta. Essa dimensão do encanto está perdida nos tempos atuais, que em nome de uma pseudotransparência só entende o que é quantificado. Esse tipo de ensino não é um sinal do nosso tempo, em que tudo precisa ser rápido, conhecer um pouco de cada coisa? Junte-se a isso o fato de que hoje – com mais razão ainda – a computação e toda a tecnologia ficam velhas em cinco anos. A função da escola da engenharia, portanto, não é ficar presa à tecnologia de ponta, porque ela já nasce neo-obsoleta. Precisamos aprender as estruturas básicas do pensamento porque isso fica para sempre. As modificações propostas em nossas escolas vêm com o carimbo internacional e se vão sem que se saiba o porquê. Já foi a reengenharia, hoje, ou terá sido ontem, a moda é o empreendedorismo, a inovação e a governança. A questão é: qual a competência que temos em falar de empreendedorismo se estamos aqui dentro da universidade? Se é inovação o que se quer, por que não vai à ciência – ela tem inovações verdadeiras – e entenda como essa trama foi traçada. Se na juventude a pessoa não tiver tempo para admirar a aventura do conhecimento, de se encantar com isso,

A escola de engenharia deveria ser uma abertura para a vida e não apenas um adestramento para o mercado

se a universidade não lhe mostrar ou o aluno não quiser vê-la, algo está perdido. Pode até ganhar dinheiro, mas eu lembro inutilmente aos meus alunos que “o objetivo da vida não é maximizar o lucro, mas minimizar o tédio”. A escola é, ou deveria ser, uma abertura para a vida e não um adestramento para o mercado. O que fazer? Não devemos nos envergonhar do fato de sermos uma cultura recente. O Brasil é um país com grandes qualidades. Temos que ter uma interação internacional, não podemos nos fechar, nos isolar em uma ilha. Sou a favor da internacionalização até a página três. O pesquisador precisa de um tempo para ficar aqui pensando com ele mesmo, com suas obsessões, porque, se não fizer isso, desse mato não sairá coelho. Se o que ele fizer for apenas colaboração internacional daquilo que os outros estão fazendo lá fora, ele ganha citações, jamais independência. É preciso uma temática local? Não só local. Em outros países, enquanto tem gente brincando de internaciona-

lização, tem um núcleo duro que está estudando e continua fazendo as coisas básicas. E nós não: atiramos para todo lado, ou melhor, para o lado que todos estão atirando, porque o risco é menor. Se me perguntam se sou contra a internacionalização, eu não sou. Agora, eu acho que é preciso formatar uma cultura interna de pensamento. É evidente que para um pesquisador de um lugar não central na pesquisa vai ser muito mais difícil ter um trabalho citado do que se ele for do MIT, por exemplo. Mas não acredito que um “país periférico” vire “central” pelo número de citações em conjunto com pesquisadores dos grandes centros: ele se transforma em “central” pelo conjunto de contribuições originais que porventura produza e se essa produção for reconhecida como própria e não da matriz. Não devemos nos envergonhar de nosso estágio, temos que lutar para ir em frente, errando e acertando. Uma das coisas que foram fundamentais na minha estadia no MIT– uma escola boa com um marketing fora de série – foi perceber que aqueles autores que eu lia são gente como a gente: eles erram, falam e fazem besteira, porque esse é o caminho humano. Nas escolas de engenharia o erro é quase um defeito de caráter. O senhor nasceu em uma família grande com seis irmãos. O seu pai era professor também? Não, era médico-cirurgião, ele gostaria, tentou fazer isso, mas tinha sete filhos. Tivemos sorte na vida, minha família é alegre, tem um bom senso de humor. Eu estudei no Colégio Santa Cruz com o padre Charbonneau, que era um professor entusiasmado e com boas ideiais. Lá também tinha um professor de matemática muito bom que deixava a gente demonstrar teoremas. O senhor acha que formou uma escola de matemática aplicada e engenharia oceânica aqui na USP? Não acho que formei uma escola. E não me desmerecendo, acho que o tamanho do Brasil na área não é nada retumbante ainda e isso não deve nos envergonhar. Do outro lado, e jogando a nosso favor, eu acho que essa é uma construção que se for feita e levada a sério no sentido amplo da ciência no Brasil, há de se produzir coisas boas, não no próximo ano, mas daqui a 30, 50 anos. É preciso persistir. n PESQUISA FAPESP 249 | 29


política c&T  formação y

Galhos e raízes da

árvore da ciência

Samuel Pessoa (1898-1976)

Projetos começam a reconstituir a genealogia acadêmica de pesquisadores brasileiros

fotos  divulgação

Acesse uma versão interativa da árvore genealógica em sbpz.org.br/ arvore-genealogica

1943

30  z  novembro DE 2016

professor do Centro de Matemática, Computação e Cognição da UFABC e coordenador do projeto. A genealogia acadêmica organiza os vínculos entre gerações de pesquisadores. O orientador é considerado o “pai” dos mestres e doutores que ajudou a formar. Esses, por sua vez, poderão gerar “netos” acadêmicos e assim por diante. A abordagem ganhou expressão com o lançamento de plataformas internacionais disponíveis na internet, como o Mathematics Genealogy Project e o Neurotree Project, que permitem mapear ancestrais acadêmicos em matemática e neurociência. O projeto brasileiro tem a ambição de ser mais amplo e abranger pesquisadores do país em todas as áreas do conhecimento. Segundo Mena-Chalco, isso é possível graças à Plataforma Lattes, que se tornou fonte de informações para pesquisadores que buscam dados sobre a ciência brasileira a fim de estudar seus fenômenos e tendências (ver Pesquisa FAPESP nº 233). “O Brasil é o único país com uma plataforma que registra as atividades de toda a sua comunidade científica”, diz.

1909

E

m 2017, cerca de 4,5 milhões de pessoas, como estudantes, professores e pesquisadores com currículos registrados na Plataforma Lattes, poderão identificar por meio de uma busca na internet as árvores genealógicas acadêmicas às quais pertencem, reconstituindo laços entre orientadores e seus pupilos construídos nos últimos 75 anos. Uma versão piloto de um sistema web está sendo criada por pesquisadores das universidades Federal do ABC (UFABC) e de São Paulo (USP), com apoio do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). Além do Lattes, o sistema será abastecido por outras duas fontes: o banco de teses e dissertações da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), com mais de 600 mil documentos, e uma lista de membros da Academia Brasileira de Ciências (ABC). “Estamos fazendo o cruzamento de dados de pesquisadores para complementar informações e evitar possíveis registros duplicados”, explica Jesús Pascual Mena-Chalco,

Carlos Chagas (1879-1934)

1935

Bruno de Pierro

Amílcar Vianna Martins (1907-1990)


Gerações rastreadas

Jorge Elias Kalil Filho (1953- )

A árvore genealógica dos pesquisadores da área de protozoologia no Brasil foi mapeada para testar a metodologia que está sendo aplicada no projeto com todos os campos do conhecimento

Walter Colli (1939- ) Luiz Hildebrando (1928-2014)

Erney Plessmann de Camargo (1935- )

José Rodrigues Coura (1927- )

Wanderley de Souza (1951- )

Cada ponto representa um pesquisador e as linhas, a relação entre orientadores e alunos de doutorado. Os pioneiros da protozoologia no país aparecem em vermelho; os pontos azuis representam aqueles que foram orientados pelos mais recentes. Os anos na linha abaixo indicam a época em que cada pesquisador começou a

1969 1970 1971

1960 1961 1962 1963 1964 1965

1957 1958

1955

1951

1948 1949

produzir artigos na área de protozoologia.

Wilson Savino (1951- ) Sergio Danilo Junho Pena (1947- )

1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011

pioneiros; já os verdes representam as gerações


A

equipe de Mena-Chalco tem realizado projetos pontuais para testar a proposta. No início do ano, ele publicou um artigo na revista Memórias do Instituto Oswaldo Cruz, em colaboração com as biólogas Maria Carolina Elias, pesquisadora do Instituto Butantan, e Lucile Floeter Winter, professora da USP, que identifica as raízes históricas da protozoologia no Brasil, área que investiga os protozoários, alguns deles causadores de doenças como leishmaniose, malária e Chagas. A partir de análises do Currículo Lattes e do banco de dados da Capes, foi possível reconstituir a árvore genealógica da área, tendo como base um conjunto de 248 cientistas que contribuíram de maneira relevante na formação de pesquisadores em protozoologia, ao orientarem, cada um, pelo menos 10 teses de doutorado. No final, a árvore reuniu 1.997 pesquisadores, dos quais 20 destacaram-se como pioneiros (ver ilustração na pág. 31). O médico Carlos Chagas (1879-1934) aparece como fundador da linhagem, depois de ter elucidado o mecanismo da doença que leva seu nome, causada pelo protozoário Trypanosoma cruzi. O levantamento também apontou pioneiros mais recentes, como o bioquímico Walter Colli, professor da USP, e o microbiologista Isaac Roitman, da Universidade de Brasília. Segundo Maria Carolina Elias, o objetivo do trabalho era mensurar a contribuição dos pioneiros, mas também foi possível avaliar outras características na protozoologia no Brasil. “Ao rastrear as relações entre orientadores e orientandos, conseguimos observar como a área evoluiu e qual é o cenário atual”, diz ela. Observou-se, por exemplo, que 68,4% dos pesquisadores que obtiveram o título de doutor em protozoologia continuam atuando na área, enquanto 16,7% migraram para outros campos. O estudo também mostra uma relação entre o aumento do contingente de pesquisadores e a expansão de po-

32  z  novembro DE 2016

líticas de apoio à pesquisa nessa área. Entre o final dos anos 1970 e o início dos anos 1990, houve um crescimento da comunidade científica em protozoologia em consequência da criação do Programa Integrado de Doenças Endêmicas, o Pide, financiado pelo CNPq, que investiu US$ 12 milhões em cerca de 200 projetos de pesquisa sobre doenças endêmicas entre 1976 e 1986. “O programa teve “Já tenho um impacto enorme. Nesse tataranetos período, vemos mais pesquisadores sendo orientados na acadêmicos e área”, diz Maria Carolina. O grupo de Mena-Chalco nem os também está mapeando árvores genealógicas individuais. conheço”, A primeira foi a de Etelvino diz Etelvino José Henriques Bechara, professor do Instituto de Química Bechara da USP (ver entrevista em Pesquisa FAPESP nº 229), apresentada em novembro de 2015 em uma homenagem feita na USP para comemorar os 70 anos do pesquisador. O levantamento mostra que Bechara tem 34 filhos acadêmicos, ou seja, pessoas orientadas por ele no mestrado e/ou doutorado ou supervisionadas no pós-doutorado, além de 582 descendentes. “Já tenho tataranetos acadêmicos e nem os conheço”, diz Bechara. “É gratificante saber que meus alunos seguiram adiante orientando outras pessoas, que por sua vez já estão formando outra geração”, afirma o químico, que trabalha com radicais livres desde o doutorado, conduzido sob a orientação do italiano Giuseppe Cilento, professor da USP nos anos 1950 e 1960 e da Universidade Estadual de Campinas (Unicamp) entre os anos 1960 e 1970. Para Bechara, árvores genealógicas acadêmicas mostram dimensões do trabalho dos pesquisadores que os indicadores tradicionais não registram. “Tenho 48 anos de vida universitária e a qualidade do meu trabalho sempre foi medida pelos artigos que publiquei. A genealogia mostra se fui capaz de formar pesquisadores qualificados e de passar adiante meus valores científicos”, afirma. A busca por ancestrais acadêmicos às vezes traz boas surpresas. Foi o que aconteceu com o matemático francês naturalizado brasileiro Jean-Yves Béziau, professor da Universidade Federal do Rio de Janeiro, que há 10 anos começou a investigar suas raízes. “Fiquei surpreso ao ver que sou descendente acadêmico do matemático e filósofo alemão Gottfried Leibniz (1646-1716)”, diz. A descoberta ocorreu depois que Béziau foi convidado a participar do Mathematics Genealogy Project (genealogy.math. ndsu.nodak.edu), um dos repositórios de genealogia acadêmica mais antigos. Criado em 1997 pelo Departamento de Matemática da Universidade de Dakota

fotos 1 Roberto Stuckert Filho/PR  2,4 e 5 wikipedia  3 eduardo cesar

Os usuários poderão colaborar, fornecendo dados que estejam faltando. “A ideia é que o sistema seja permanentemente atualizado. Quanto mais antigo o vínculo, menor a chance de encontrarmos referências sobre ele na Plataforma Lattes. E há casos de pesquisadores que se esquecem de informar o nome de seus orientadores”, explica Mena-Chalco. Além de fomentar estudos em história e sociologia da ciência, a genealogia acadêmica tem aplicações potenciais no campo da avaliação, medindo a influência que um cientista teve nas gerações seguintes. Em 2015, Mena-Chalco e colaboradores propuseram em um artigo científico um novo indicador, o índice-h genealógico, para avaliar o êxito de um cientista na tarefa de formar sucessores. Um pesquisador com índice-h genealógico 5 é aquele que teve ao menos cinco “filhos” acadêmicos (orientandos), sendo que cada um deles orientou pelo menos cinco pesquisadores. “Trata-se de uma proposta de indicador para avaliar a fecundidade acadêmica de um pesquisador”, diz.


Cadeia de orientadores e pupilos O Mathematics Genealogy Project mapeou os ancestrais de doutores em matemática do mundo inteiro. Abaixo, a árvore genealógica de Artur Ávila, o ganhador da Medalha Fields Artur Avila (1979- ) O pesquisador do Instituto Nacional de Matemática Pura e Aplicada (Impa) tornou-se o primeiro brasileiro a ganhar a Medalha Fields, honraria concedida a matemáticos com menos de 40 anos de idade Welington Celso de Melo (1946- ) Impa

Jacob Palis Jr. (1940- ) Impa

Stephen Smale (1930- ) Universidade de Michigan, EUA Raoul H. Bott (1923-2005) Universidade Carnegie Mellon, EUA Richard James Duffin (1909-1996) Universidade de Illinois, EUA Harold Meade Mott-Smith (1897-?) Universidade de Illinois, EUA Robert Daniel Carmichael (1879-1967) Universidade de Princeton, EUA George David Birkhoff (1884-1944) Universidade de Chicago, EUA Eliakim Hastings Moore (1862-1932) Universidade Yale, EUA Hubert Anson Newton (1830-1896) Universidade Yale, EUA Michel Chasles (1793-1880) École Polytechnique, França Simeon Denis Poisson (1781-1840) École Polytechnique, França Joseph Louis Lagrange (1736-1813) Universidade de Turim, Itália Giovanni Battista Beccaria (1716-1781) Academia de Ciências de Turim

do Norte, nos Estados Unidos, mantém registros que remontam ao século XIV. No total, são mais de 200 mil doutores em matemática e áreas correlatas, como engenharia. Para chegar até Leibniz, Béziau partiu de seu orientador, o matemático Daniel Andler, professor da Universidade Sorbonne, em Paris, e viu que mais 11 pessoas o separavam de Leibniz.

O

Mathematics Genealogy Project é um exemplo de projeto que conseguiu ir longe no tempo. Um dos desafios para quem faz pesquisa nessa área é identificar os orientadores mais antigos. O sistema de currículo Lattes foi lançado em 1999 e contém poucas menções a pioneiros da ciência brasileira. Com frequência, é preciso recorrer a registros históricos para reconstituir a árvore. “Parte de nosso trabalho com a genealogia acadêmica na área de protozoologia foi manual”, ressalta Maria Carolina. Jesús Mena-Chalco destaca outra dificuldade. “No passado, não existia a figura do orientador como a conhecemos hoje. Por isso, tivemos de recorrer a outras fontes para identificar ancestrais acadêmicos”, explica. Desafios desse tipo são também enfrentados por Alberto Laender, professor titular do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG). Ele iniciou no ano passado, juntamente com o seu colega Fabrício Benevenuto, um projeto em genealogia acadêmica denominado The Science Tree, que pretende reunir dados genealógicos de pesquisadores dos mais diversos países. O objetivo é estudar a formação, a evolução e a disseminação de grupos de pesquisa ao redor do mundo. Os dados estão sendo coletados de diversas fontes, entre elas a Networked Digital Library of Theses and Dissertations (NDLTD), que possui registradas mais de 4,5 milhões de teses e dissertações do mundo todo, e também da Plataforma Lattes, o que permitirá integrar as árvores dos pesquisadores brasileiros que se formaram em instituições do exterior com as de seus orientadores. De acordo com Laender, sua equipe trabalhou inicialmente com dados de apenas 638 mil pesquisadores, com os quais gerou uma floresta de cerca de 98 mil árvores. “Os dados da NDLTD são registrados por instituições acadêmicas de diversos países e muitas vezes não são preenchidos de forma apropriada. Muitos trabalhos não contêm, por exemplo, o nome do orientador”, explica. Uma das principais dificuldades, ele diz, é obter dados que possam ser identificados e processados automaticamente. “Ainda que a disponibilidade de dados sobre pesquisadores seja muito maior do que no passado, estudos de genealogia acadêmica ainda exigem um trabalho de limpeza, mas que no fim vale a pena”, diz Laender. Os primeiros resultados da pesquisa foram apresentados em uma conferência internacional sobre bibliotecas digitais realizada em Newark, Estados Unidos. n pESQUISA FAPESP 249  z  33


Reconhecimento y

A missão de pensar o futuro da ciência Antropólogo que coordena projeto financiado pela FAPESP é nomeado para conselho que assessora o governo norte-americano Fabrício Marques

do Laboratório de Física Aplicada da Universidade Johns Hopkins, na qual gerenciou investimentos de mais de US$ 60 milhões em projetos de segurança e defesa. Julia Phillips é diretora emérita dos Laboratórios Nacionais Sandia, onde, como vice-presidente, foi responsável por desenvolver a política de proteção à propriedade intelectual da instituição. Três membros do conselho foram reconduzidos para um novo mandato de seis anos. O físico Arthur Bienenstock, professor emérito da Universidade de Stanford, coordenou iniciativas do conselho para reduzir os encargos administrativos que pesam sobre os pesquisadores financiados pela NSF. W. Carl Linenberger, professor de química da Universidade do Colorado, e Anneila Sargent, professora de astronomia do Instituto de Tecnologia da Califórnia, destacaram-se na supervisão de programas da agência.

O

antropólogo Emilio Moran, titular de uma São Paulo Exce­l lence Chair FAPESP na Universidade Estadual de Campinas (Unicamp) e coordenador de um projeto sobre os impactos da construção da hidrelétrica de Belo Monte, foi escolhido pelo presidente dos Estados Unidos, Barack Obama, para integrar o National Science Board (NSB). O conselho estabelece as estratégias da National Science Foundation (NSF), principal agência de fomento à pesquisa básica dos Estados Unidos, associando-as às políticas definidas pelos poderes executivo e legislativo nos Estados Unidos, e delibera sobre a concessão de financiamentos a grandes projetos de pesquisa. Formado por 25 membros, entre cientistas de primeira linha e alguns representantes de indústrias com trabalho voltado à inovação, o NSB se reúne cinco vezes por ano e funciona como um órgão consultivo do governo e do parlamento em temas ligados à ciência, à tecnologia e à educação. O mandato de Moran no NSB é de seis anos. “O conselho busca garantir que os investimentos em ciência e tecnologia

34  z  novembro DE 2016

feitos pela National Science Foundation sejam feitos em pesquisa de qualidade que atenda às necessidades do país. Participar dessas decisões é uma grande responsabilidade”, diz o pesquisador, que é professor da Michigan State University (MSU) e um pioneiro em estudos que combinam as ciências naturais e sociais para compreender as interações entre homem e ambiente. Para Rachel Croson, diretora do College of Social Science da universidade, a experiência multidisciplinar de Moran é singular e promete ser bastante útil para o conselho. “Ficamos orgulhosos com a sua nomeação”, disse. Além de Moran, outros três nomes foram indicados pelo presidente Obama para o NSB. Um deles é o reitor da Universidade da Flórida, W. Kent Fuchs, que tem longa experiência em gestão universitária: entre 2002 e 2014, foi diretor do Colégio de Engenharia da Universidade Cornell e vice-reitor na instituição, e coordenou a criação de um novo campus de Cornell, para a área tecnológica, na cidade de Nova York. Já Victor McCrary, vice-reitor da Morgan State University, em Maryland, foi executivo

O National Science Board consolidou-se como um fórum que discute as diretrizes e o futuro da NSF e faz recomendações de longo prazo para o governo e o Congresso estadunidenses. Embora participe das decisões da agência, não tem interferência direta no dia a dia da administração, que é desempenhada pelo diretor da NSF, cargo atualmente ocupado pela astrofísica France Cordova, que tem assento no conselho. Parte da contribuição do NSB é divulgada em relatórios, como os que apresentam a cada dois anos os indicadores de ciência e engenharia nos Estados Unidos ou os que tratam de temas específicos: o mais recente discutiu os desafios de melhorar a formação de profissionais em ciência, tecnologia, engenharias e matemática. A vocação do conselho de pensar a ciência como política de estado, não de governo, foi moldada no decorrer do tempo. Seus membros são indicados pelo presidente, mas seu mandato de seis anos é descolado do calendário político do país. A ideia de criar um órgão composto por pessoas ligadas à ciência para apoiar a NSF remonta à segunda metade dos anos 1940, mas foi aceita com alguma relutância. Um dos responsáveis por esse

fotos  1 e 2  nsb divulgação  3 Marcia Minillo

Recomendações de longo prazo


Emilio Moran: um estudioso da ocupação humana da Amazônia

1

formato foi o engenheiro Vannevar Bush, à época chefe do U.S. Office of Scientific Research and Development. Em 1945, Bush produziu um documento histórico, intitulado Science, the endless frontier (Ciência, a fronteira sem fim), em que defendia a importância da ciência básica para o futuro dos Estados Unidos e a necessidade de o governo financiar o trabalho de pesquisadores de universidades e a educação dos futuros cientistas. Essa tarefa, na sua proposta, ficaria a cargo de uma agência dirigida por um conselho composto por nove membros, entre pessoas do meio científico sem conexão com o governo, para evitar interferência política nas suas decisões. Embora o documento tivesse sido encomendado pela Casa Branca, o então presidente Harry Truman tinha ideias diferentes para a agência. No lugar do conselho, preferia que fosse administrada por um diretor nomeado pela Casa Branca. Vannevar Bush aliou-se a um senador, Warren Magnuson, que apresentou um projeto propondo a criação da agência de pesquisa básica controlada pelo conselho de nove membros. A lei foi aprovada em 1947, mas Truman a vetou. Bush, com apoio de setores da comunidade científica, seguiu defendendo a ideia e uma solução para o impasse veio

3

Reunião do National Science Board em 2015, com a diretora da National Science Foundation, France Cordova, em primeiro plano, e prêmio Vannevar Bush, oferecido pelo conselho a líderes da ciência dos Estados Unidos 2

em 1950, com a aprovação de uma lei que, como queria Truman, dava ao presidente o poder de nomear o diretor da agência, mas também, como queria Bush, criava um conselho de governança de 25 membros, obrigatoriamente composto por cientistas, engenheiros e educadores, ainda que todos fossem nomeados pela Casa Branca. Aos membros do conselho, cabia a primazia de escolher o presidente do NSB – a atual ocupante é Maria Zuber, vice-presidente de pesquisa do Massachusetts Institute of Technology. Em alguns momentos, o conselho precisou levantar a voz, como quando o presidente John Kennedy propôs reduzir o número de conselheiros de 25 para 12 – ele acabou mudando de ideia – ou quando o presidente Richard Nixon congelou o orçamento da NSF e condicio-

nou a nomeação de um novo diretor da agência em 1971 ao apoio do indicado, o químico Franklin Long, da Universidade Cornell, a seu programa de mísseis antibalísticos. Long recusou a proposta. Nos anos 1980, o conselho teve um papel importante na reformulação do sistema de revisão por pares da NSF, diante de evidências de que recomendações de pareceristas haviam sido ignoradas pelo staff da agência num projeto de educação que causou embaraços políticos. O NSB também foi decisivo, a partir dos anos 1990, para reforçar investimentos da NSF na pesquisa em meio ambiente, em educação científica e matemática e, mais recentemente, em nanociência. É nesse ambiente que Moran, cubano naturalizado norte-americano, irá atuar. Uma de suas áreas de interesse é o Brasil, pESQUISA FAPESP 249  z  35


Rua de Altamira por onde circulam os trabalhadores da obra da hidrelétrica de Belo Monte: avaliação dos impactos sociais do grande empreendimento

36  z  novembro DE 2016

rais. Ostrom sustentou que, na prática, os interesses isolados de certos grupos podem ser mais benéficos à economia e ao meio ambiente do que uma intervenção do Estado ou do próprio mercado. Transamazônica

Nos anos 1970, Moran acompanhou o nascimento da ocupação humana na Transamazônica, tema de sua pesquisa de doutorado. De acordo com a socióloga Lucia da Costa Ferreira, professora da Unicamp e pesquisadora do Nepam, o caráter inovador da abordagem de Moran está em utilizar um conjunto amplo de dados, provenientes de entrevistas, de informações de sensoriamento remoto e estudos demográficos, para compreender o papel de vários personagens na ocupação da floresta. “Seu trabalho entende esse processo como um sistema complexo que envolve alianças e interações de múltiplos atores e foge daquela dicotomia tradicional que opõe a figura do empreendedor inescrupuloso, responsável pela destruição da floresta, a uma comunidade de excluídos”, afirma Lucia, integrante do projeto sobre Belo Monte. Em estudos anteriores, ela explica, Moran mostrou que há processos microssociológicos que interferem na mudança estrutural da floresta. “Constatou, por exemplo, que também a agricultura familiar tinha um papel no desmatamento na Amazônia e, com base em

dados demográficos e de sensoriamento remoto, evidenciou que uma variável do fenômeno era a composição familiar. Agricultores com mais filhos do sexo masculino beneficiavam-se dessa força de trabalho e acabavam gerando mais desmatamento do que agricultores com filhas”, exemplifica. Na pesquisa em Altamira, Moran e sua equipe estudam o impacto da construção da hidrelétrica em várias populações. Elaboraram um questionário e começaram o trabalho entrevistando os antigos moradores da cidade. “Quase todo o levantamento de dados do projeto está feito. Falta apenas avaliar um assentamento rural, porque ele ainda não foi construído”, explica Moran. O projeto busca compreender melhor as consequências de empreendimentos como Belo Monte, tais como o aumento de doenças infecciosas, as consequências sanitárias e de abastecimento geradas pelo rápido crescimento demográfico, as mudanças na oferta de mão de obra, e criar políticas para lidar com tais desafios. n

Projeto Processos sociais e ambientais que acompanham a construção da hidroelétrica de Belo Monte, Altamira, PA (2012/51465-0); Modalidade Programa São Paulo Excellence Chairs (Spec); Pesquisador responsável Emilio Federico Moran (Michigan State University e Núcleo de Pesquisas Ambientais-Unicamp); Investimento R$ 772.919,97, para todo o projeto.

Lalo De Almeida / Folhapress

em particular a Amazônia (ver entrevista em Pesquisa FAPESP nº 125). No Núcleo de Estudos Ambientais (Nepam) da Unicamp, coordena uma equipe de pesquisadores de várias áreas e diferentes instituições que estuda os impactos sociais e ambientais da construção da hidrelétrica de Belo Monte, na bacia do rio Xingu, próxima ao município de Altamira, Pará. O projeto é financiado pela FAPESP e está vinculado ao São Paulo Excellence Chair (Spec), modalidade criada pela Fundação para estabelecer colaborações entre instituições do estado de São Paulo e pesquisadores de alto nível radicados no exterior. Moran visita o Brasil várias vezes por ano. Leciona e orienta alunos no doutorado em ambiente e sociedade na Unicamp e se dedica ao trabalho de campo em Altamira. Graduado em literatura espanhola na Spring Hill College, fez mestrado em história da América Latina e doutorado em antropologia social na Universidade da Flórida. Passou a maior parte da carreira na Universidade de Indiana, até aposentar-se em 2012. Lá, manteve uma longa colaboração com a cientista política Elinor Ostrom (1933-2012). Ganhadora do Nobel de Economia de 2009, ela contestou o conceito da “tragédia dos comuns”, segundo o qual interesses individuais se sobrepõem a um objetivo coletivo, resultando em destruição dos bens públicos e dos recursos natu-


Infraestrutura y

Prova de velocidade Brasil perde fôlego em ranking mundial de supercomputadores

E

Nicolas Landau / feelgrafix.com

m um intervalo de poucos meses, o Brasil perdeu sete posições no ranking das nações com os maiores parques de supercomputadores (www.top500.org). Em novembro do ano passado, o país ocupava a 10ª colocação, com seis máquinas entre as 500 com mais alto desempenho no mundo. Em junho deste ano, caiu para o 17º lugar, com quatro computadores. O melhor momento do país foi em 2004, quando teve nove representantes na lista. Os dois supercomputadores brasileiros que deixaram o ranking pertencem à Petrobras e ao Instituto Nacional de Pesquisas Espaciais (Inpe). Ambos seguem produzindo cálculos complexos e velozes, na casa dos trilhões de operações por segundo, e são indispensáveis para simular perfurações em campos de petróleo e produzir pesquisas sobre clima e previsões meteorológicas acuradas. Mas já não figuram na relação dos 500 mais velozes porque foram superados por outros de fabricação recente. Inaugurado

neste ano, o computador mais veloz do mundo, o Sunway TaihuLight, da China, é capaz de realizar 93 quatrilhões de cálculos por segundo – desempenho três vezes superior ao do 2º lugar, o também chinês Tinhae-2. O país asiático tem 168 máquinas no Top 500, que é divulgado desde 1993 pelas universidades de Mannheim, na Alemanha, e do Tennessee, nos Estados Unidos. Os supercomputadores brasileiros citados no ranking foram inaugurados no ano passado. Três deles compõem o cluster Santos Dumont, em operação no Laboratório Nacional de Computação Científica (LNCC), no Rio de Janeiro, e o outro, batizado de Yemoja, foi instalado no Campus Integrado de Manufatura e Tecnologia do Serviço Nacional de Aprendizagem Industrial (Senai Cimatec), em Salvador, Bahia. “A perda de posições mostra que o Brasil atualiza seu parque de supercomputadores em um ritmo mais lento que o de outros países”, afirma Pedro Leite da Silva Dias, profes-

9 Altos e baixos

10

Número de computadores de alto desempenho instalados no Brasil que já figuraram no Top 500 no período de 1993 a 2016

5

4 supercomputadores 0

Fonte  Top 500

supercomputadores

1995

2000

2005

2010

2015 pESQUISA FAPESP 249  z  37


sor do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP), que foi diretor do LNCC entre 2007 e 2015. O laboratório é vinculado ao Ministério da Ciência, Tecnologia, Inovações e Comunicações. “Por outro lado, estivemos por um bom tempo com apenas um computador na lista, que é dinâmica e muda rapidamente. Para ficar sempre no topo, ou pelo menos não cair, é preciso investir muito na modernização do parque computacional de alto desempenho”, completa Dias. A queda do Brasil no ranking acende um sinal de alerta. “Ter domínio de tecnologias de processamento computacional é uma vantagem competitiva, pois os supercomputadores ajudam a desenvolver pesquisas na fronteira do conhecimento”, diz Augusto Gadelha, atual diretor do LNCC. “Máquinas mais potentes incentivam os pesquisadores a tentar resolver problemas mais complexos.” Na segunda metade dos anos 1990, o Brasil era o líder em número de supercomputadores entre as nações que hoje compõem o bloco dos Brics [Brasil, Índia, China,

Rússia e África do Sul]. Atualmente, está à frente apenas da África do Sul. “Nos últimos anos, assistimos ao avanço da China, que superou os Estados Unidos e hoje tem o maior parque. A rivalidade entre os dois países criou uma espécie de Guerra Fria da supercomputação”, observa Dias. Há uma disputa para ver quem será o primeiro a ter um computador capaz de alcançar os exaflops, ou seja, chegar à casa de 1 quintilhão de operações matemáticas por segundo. Além de serem uma poderosa ferramenta de pesquisa, supercomputadores dão suporte também a áreas consideradas estratégicas por muitos governos, como defesa, energia nuclear e saúde. Em 2014, o Laboratório Nacional Oak Ridge e o Laboratório Nacional Lawrence Livermore, ambos nos Estados Unidos, investiram US$ 325 milhões na aquisição de supercomputadores da IBM que hoje são usados por pesquisadores em estudos sobre mudanças climáticas, novos materiais e energias renováveis. A infraestrutura é compartilhada com órgãos de governo, como o Departamento

1

Evolução acelerada

de Energia (DOE). No caso da China, boa parte dos supercomputadores é utilizada por instituições governamentais. “Eles ajudaram em várias frentes, como no planejamento da construção de hidrelétricas”, explica Dias. líder na américa latina

Único país na América Latina a figurar no ranking Top 500, o Brasil abriga apenas 0,8% dos 500 supercomputadores do mundo, um percentual inferior à contribuição do país para a ciência mundial, que é de pouco mais de 2% dos artigos publicados em revistas indexadas. A computação de alto desempenho é relativamente nova no país: a primeira aquisição remonta ao final dos anos 1980. Na época, a Financiadora de Estudos e Projetos (Finep) lançou um programa para promover a compra de supercomputadores em universidades e instituições de pesquisa. A primeira beneficiada foi a Universidade Federal do Rio Grande do Sul (UFRGS). Em 1994, o Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Inpe adquiriu seu

2

Desde 1993, 17 supercomputadores ocuparam a primeira posição entre os 500 mais potentes do mundo. Em 23 anos, a capacidade deles multiplicou mais de 1 milhão de vezes

Numerical Wind Tunnel

jun

nov

1993

National Aerospace Numerical Wind Tunnel Laboratory National Aerospace 124 Laboratory, com upgrade gigaflops/s para 170 gigaflops/s

1994

1995

1996

CM-5

Intel XP/S 140 Paragon

Los Alamos National Laboratory 59,7 gigaflops/s

Sandia National Laboratories 143,4 gigaflops/s

1

ASCI White

CP-PACS

Lawrence Livermore National Laboratory 7,2 teraflops/s

Universidade de Tsukuba 368,2 gigaflops/s

1997

Hitachi SR2201 Universidade de Tóquio 232,4 gigaflops/s

1998

1999

2000

2001

2002

2003

2004

ASCI Red

The Earth Simulator

Sandia National Laboratories 1,06 teraflop/s

Earth Simulator Center 35,8 teraflops/s

2


fotos 1 e 4 Divulgação / Top 500 2 Sandia National Laboratories 3 Los Alamos National Laboratory

primeiro supercomputador, um NEC Sx-3 de 3,2 gigaflops de capacidade. “A previsão do tempo exige a resolução de equações complexas em poucas horas. E isso só se faz com um processamento extremamente veloz”, explica Luiz Flávio Rodrigues, chefe do serviço de supercomputação e suporte do CPTEC-Inpe. Para dar conta de tais exigências, os supercomputadores devem ser substituídos a cada quatro ou cinco anos. Desde 1994, o Inpe já teve cinco equipamentos. O mais recente é um Cray XT-6, batizado de Tupã (trovão, em guarani), adquirido em 2010 por R$ 50 milhões – R$ 15 milhões da FAPESP e R$ 35 milhões do governo federal. O supercomputador tem 256 teraflops de capacidade. “Com a crise, não há perspectiva de substituí-lo no curto prazo. Como o computador já está entrando em fim de vida útil, atualizaremos alguns componentes, o que deve mantê-lo em operação por mais dois anos”, conta Rodrigues. O Tupã se divide em duas frentes de trabalho: 50% de seu tempo de uso é dedicado ao trabalho operacional do

“Tecnologias de processamento ajudam a desenvolver pesquisas na fronteira do conhecimento”, diz Augusto Gadelha

CPTEC, que inclui a previsão meteorológica, e os outros 50% à pesquisa científica. Uma das aplicações do Tupã é o processamento do Modelo Brasileiro do Sistema Terrestre (Brazilian Earth System Model – Besm), um dos pilares do Programa FAPESP de Pesquisa em Mudanças Climáticas Globais, lançado em 2008. Sob coordenação do Inpe, o Besm foi desenvolvido com base em parâmetros climáticos da América do Sul, incorporando processos regionais de formação de nuvens, além do conhecimento criado no país referente à influência da Floresta Amazônica sobre o clima global. Em 2012, o modelo brasileiro passou

3

a contribuir com o Painel Intergovernamental sobre Mudanças Climáticas (IPCC, na sigla em inglês). A indústria de petróleo e gás também utiliza de modo intensivo os supercomputadores para calcular o potencial de reservatórios, reduzir o risco de vazamentos, entre outras aplicações. Os dois principais computadores da Petrobras, o Grifo04 e o Grifo06, são utilizados para gerar mapas em alta resolução do subsolo, obtidos por meio da emissão de ondas sonoras. A empresa também utiliza a capacidade de processamento de instituições parceiras, como o Instituto Alberto Luiz Coimbra de Pós-graduação e Pesquisa em Engenharia da Universidade Federal do Rio de Janeiro (Coppe-UFRJ). Muitos projetos da Petrobras são liderados por pesquisadores do Núcleo Avançado de Computação de Alto Desempenho (Nacad) do Coppe e do Centro de Pesquisa e Desenvolvimento (Cenpes) da Petrobras. Em julho, o Coppe inaugurou o Lobo Carneiro, supercomputador fabricado pela norte-americana SGI, com capacidade de 226 teraflops – pode executar 226 trilhões

4

K Computer BlueGene/L

Oak Ridge National Laboratory 1,7 petaflop/s

Lawrence Livermore National Laboratory 136,8 teraflops/s

2005

Riken Advanced Institute for Computational Science 10,5 petaflops/s

Jaguar

2006

2007

2008

2009

2011

2012

Oak Ridge National Laboratory 17,6 petaflops/s

2013

2014

2015

IBM Roadrunner

Tianhe-1A

Sequoia

Tianhe-2

Los Alamos National Laboratory 1,1 petaflop/s

National Supercomputing Center of Tianjin 2,57 petaflops/s

Lawrence Livermore National Laboratory 16,3 petaflops/s

National University of Defense Technology 33,8 petaflops/s

3 Fonte top 500

2010

Titan

4

2016

Sunway Taihulight National Supercomputing Center (Wuxi) 93 petaflops/s


de operações matemáticas por segundo. Assim como o computador Santos Dumont do LNCC, a máquina também atenderá ao projeto High Performance Computing for Energy (HPC4E), que reúne instituições de pesquisa e empresas do Brasil e da União Europeia com o objetivo de melhorar a eficiência do setor energético. “Além de clientes na área de óleo e gás, como a Petrobras, muitos de nossos usuários atuam na área de engenharia, com destaque para a investigação em diferentes formas de energia, como a solar e a eólica”, explica Guilherme Horta Travassos, professor do Programa de Sistemas e Computação da Coppe-UFRJ e presidente da comissão de administração do Nacad. O Lobo Carneiro custou US$ 4,2 milhões. Os recursos vieram de fontes como a UFRJ, a Agência Nacional de Petróleo (ANP), entre outros.

Flop e seus múltiplos Flop é a unidade de medida da capacidade de processamento. Equivale ao número de cálculos que um computador é capaz de fazer em 1 segundo 1 megaflop/s

1 milhão de operações/

segundo 1 gigaflop/s

1 bilhão de operações/

segundo 1 teraflop/s

1 trilhão de operações/

segundo 1 petaflop/s

1 quatrilhão de

operações/segundo 1 exaflop/s

1 quintilhão de

operações/segundo reforço baiano

Outra novidade para o segmento de óleo e gás no país entrou em operação recentemente em Salvador, na Bahia. Trata-se do Yemoja (Yemanjá, na língua iorubá), fabricado pela SGI. Um dos computadores mais rápidos instalados na América Latina, ele foi adquirido em 2015 graças a uma parceria entre o Senai da Bahia e a BG Brasil (Shell). Há projetos em andamento voltados para a inovação na área de óleo e gás, mas o Senai Cimatec não divulga informações sobre eles. Com 405 teraflops de capacidade de processamento, o Yemoja ocupava a 95ª posição no Top 500 no início de sua operação e hoje é o 323º colocado no ranking. “Será implantado um segundo 40  z  novembro DE 2016

Um laptop comum é capaz de realizar 80 bilhões de operações por segundo, ou 80 gigaflops/s

supercomputador voltado para estudos em biomedicina, robótica, processamento de imagens e energias alternativas”, informa o engenheiro João Marcelo Silva Souza, líder da área de processamento de alto desempenho do Senai Cimatec. Outro investimento recente em computação de alto desempenho beneficiou o Centro de Ciências Matemáticas Aplicadas à Indústria (CeMEAI), um dos Centros de Pesquisa, Inovação e Difusão

(Cepid) apoiados pela FAPESP, que inaugurou em julho de 2015 o cluster computacional Euler, no campus da USP em São Carlos. Adquirido por R$ 4,5 milhões, o sistema é composto por 104 computadores ligados em rede, com capacidade de fazer 47 trilhões de operações por segundo. “É um dos computadores mais rápidos já instalados em universidades de São Paulo”, afirma José Alberto Cuminato, professor do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP e diretor do CeMEAI. Batizado em homenagem ao matemático e físico suíço Leonhard Paul Euler (1707-1783), o sistema é utilizado em simulações de escoamento de fluidos, com aplicação em engenharia de petróleo e aeroespacial, de redes complexas, como a propagação de epidemias, e de nanoestruturas, entre outros. Por se tratar de um equipamento multiusuário financiado pela FAPESP, é franqueado a outras instituições do estado de São Paulo. Alguns dos principais usuários do Euler são pesquisadores do Instituto Tecnológico de Aeronáutica (ITA), em São José dos Campos, da Universidade Federal de São Carlos (UFSCar), do Laboratório Nacional de Luz Síncrotron (LNLS) e da Universidade do Texas, nos Estados Unidos. Um grupo de pesquisadores do ICMC-USP utiliza o cluster, em parceria com a Petrobras, para simulações de extração, refino e combustão de petróleo. Em março de 2017 o Euler deverá ser atualizado pela primeira vez, ao custo de R$ 2 milhões. “Não basta ter recursos apenas para a compra de um supercomputador. A operação desse tipo de equipamento implica gastos com manutenção e energia. A instituição precisa prever tudo isso no orçamento”, avalia Cuminato, lembrando que a conta de energia do Euler é paga pela USP. Para aumentar sua capacidade de processamento, a USP firmou em 2012 um acordo com a Universidade Rice, nos Estados Unidos, que dispõe de um computador doado pela IBM, o Blue Gene/Q, com capacidade de 189 teraflops. “A USP contrata os serviços anualmente e utiliza

foto paulo faria

O cluster computacional Santos Dumont está instalado na sede do LNCC em Petrópolis, no Rio de Janeiro


298

168

aproximademente 30% da capacidade do supercomputador em estudos em áreas como engenharia, física, astronomia e ciências atmosféricas”, diz João Eduardo Ferreira, superintendente de Tecnologia da Informação da USP. Cerca de 41% da cota da USP no Blue Gene é utilizada por pesquisadores do Instituto de Física; 18%, da Escola Politécnica (Poli); e 17%, do Instituto de Astronomia e Geofísica (IAG). No total, a USP desembolsa cerca de US$ 500 mil por ano para ter acesso ao Blue Gene/Q. Dois clusters computacionais da USP, batizados de Águia (45 teraflops) e Lince (70 teraflops), complementam o trabalho da máquina estadunidense. De acordo com Ferreira, a parceria da USP com a Universidade Rice levou em consideração o fator da sustentabilidade do supercomputador. O Blue Gene/Q é uma das máquinas mais econômicas do mundo e figura no Top Green 500, uma outra lista que divulga as máquinas com maior eficiência energética.

165

Máquinas pelo mundo Comparação no número de supercomputadores que aparecem no Top 500 em 2006 e 2016 por país

n 2006  n 2016

Fonte top 500

35

29 29

28

26 18

17

11

8 China

1

7

Rússia

Estados Unidos

0

6

Polônia

0

Japão

5

Áustria

9

Alemanha

5

Austrália

0

França

5

Finlândia

0

Reino Unido

5

Suécia

7

5

Itália

11 9 Índia

4

Coreia do Sul

5

Arábia Saudita

custos elevados

Além de custar caro e de ter uma vida útil relativamente curta, um supercomputador tem manutenção dispendiosa. Para Travassos, da UFRJ, os custos com energia e manutenção foram fatores importantes na decisão da compra do supercomputador Lobo Carneiro. “Mesmo sendo muito eficiente, a conta de luz pode chegar a R$ 60 mil mensais, com a utilização plena do sistema”, afirma. A preocupação com computadores econômicos é global. “Supercomputadores acarretam altos gastos com manutenção e conta de luz”, diz Pedro Dias, da USP. O Santos Dumont, do LNCC, só entrou em plena operação em junho. Entre janeiro e maio, funcionou apenas quatro horas por dia e não esteve disponível à comunidade científica. O motivo foi a falta de recursos. “O LNCC teve redução do orçamento entre 2015 e 2016. Em junho, isso foi resolvido e hoje o Santos Dumont atende a 42 projetos, em temas como nanotecnologia, energias renováveis, engenharia civil, desenvolvimento de vacinas contra dengue e zika, produção de softwares, astronomia, entre outros”, diz Gadelha. A máquina consome 0,8 megawatt (MW) e o valor da conta de luz é de R$ 350 mil a R$ 400 mil por mês. O Santos Dumont e o Lobo Carneiro são as únicas máquinas brasileiras que figuram este ano na Green 500.

Adquirido por aproximadamente R$ 45 milhões da empresa francesa Atos/ Bull, o Santos Dumont é composto por três sistemas computacionais distintos com capacidade de alcançar 1,1 petaflop. Isso significa que ele é capaz de realizar 1 quatrilhão de operações matemáticas por segundo – aproximadamente 1 milhão de vezes mais rápido que um notebook comum. É peça central do Sistema Nacional de Processamento de Alto Desempenho (Sinapad), rede formada por nove Centros Nacionais de Processamento de Alto Desempenho (Cenapads), operados por universidades e instituições de pesquisa. O Nacad, do Coppe, é um desses centros que estão interligados e podem ser utilizados remotamente por pesquisadores de todo o país. Criado em 1994, o Cenapad de São Paulo está localizado na Universidade Estadual de Campinas (Unicamp) e já foi utilizado por pesquisadores de 18 estados brasileiros, sendo 36% de São Paulo, 25% do Rio Grande do Sul e 13% de Minas Gerais. “A maior parte dos usuários atua nas áreas de matemática, física, química, geociências e biologia”, diz José Augusto Chinellato, professor no Instituto de Física Gleb Wataghin da Unicamp e coordenador do Cenapad-SP. No total, estão em andamento 172 projetos executados por 502 pesqui-

7

4

sadores de instituições de todo o Brasil. “O Sinapad consolidou-se como uma rede de computação de alto desempenho voltada para as universidades e instituições de pesquisa”, explica Chinellato. Pedro Dias observa que o Brasil privilegiou a pulverização dos recursos para a computação de alto desempenho. “Optou-se pela compra de um número grande de pequenas máquinas”, explica. Nos Estados Unidos, o modelo é o oposto: há grandes centros computacionais espalhados pelo país, que atendem às demandas da pesquisa e da indústria. Segundo ele, a falta de mais máquinas robustas explica por que muitos pesquisadores brasileiros recorrem a computadores instalados no exterior, por meio de colaborações científicas, ou contratando serviços de processamento de empresas como Google e Amazon. De acordo com Gadelha, do LNCC, o modelo adotado no Brasil é herança do final dos anos 1980, época em que não havia tecnologia no país capaz de garantir que pesquisadores em regiões distantes pudessem utilizar remotamente um supercomputador instalado no Sudeste. “Com isso, instituições de vários estados reivindicavam recursos para terem seus próprios computadores de alto desempenho”, explica. n Bruno de Pierro pESQUISA FAPESP 249  z  41

4

4

Brasil


Patentes y

Protagonismo incomum Universidades brasileiras ampliam esforços para transferir conhecimento para a sociedade e ocupam espaços que, em outros países, cabem às empresas

N

o ranking dos depositantes de pedidos de patentes de invenção no Brasil em 2015, as universidades públicas mais uma vez predominaram. Há 15 universidades nas 20 primeiras posições, de acordo com levantamento do Instituto Nacional de Propriedade Industrial (Inpi), a autarquia encarregada da concessão e garantia de direitos de propriedade intelectual no país. Quatro empresas e uma organização privada de pesquisa completam a lista. É certo que o primeiro lugar pertence à Whirlpool, com 90 depósitos. Mas a multinacional é seguida por instituições de ensino superior, como a Universidade Federal de Minas Gerais (UFMG), com 56 pedidos, e a Estadual de Campinas (Unicamp), com 52 (ver quadro). Os dados reafirmam um comportamento incomum do sistema de ciência e tecnologia do país. Em países desenvolvidos, ao contrário do que se vê no Brasil, são as empresas, e não as universidades, as organizações que mais se mobilizam para obter patentes. No ranking de instituições da Alemanha com mais patentes concedidas no país em 2015, 18 entre as 20 primeiras posições são ocupadas por empresas, mais da metade delas do setor 42  z  novembro DE 2016

automotivo – a General Motors lidera a lista, com 436 concessões, segundo dados do Escritório de Patentes e Marcas Comerciais da Alemanha. Tais dados são úteis para apontar tendências, embora não sejam comparáveis com os do Brasil, onde as estatísticas, por conta da demora de mais de 10 anos na avaliação de pedidos de patentes, monitoram os depósitos e não a obtenção de registros. No ranking alemão, as duas instituições públicas entre as 20 primeiras são os institutos Fraunhofer e o centro de pesquisa aeroespacial DLR. Nos Estados Unidos, a primazia das empresas é mais eloquente – a Universidade da Califórnia, primeira instituição pública a figurar no ranking de 2015 do Escritório de Patentes e Marcas Comerciais dos Estados Unidos (USPTO, na sigla em inglês), aparece na 82ª posição. A lista é dominada por empresas de tecnologia – IBM, Samsung, Canon, Qualcomm e Google na liderança. A patente protege a invenção, dando a seu detentor o direito de estabelecer, por um certo período de tempo, as condições segundo as quais terceiros poderão usar a ideia. É um instrumento usado por empresas para salvaguardar seus esforços de pesquisa e desenvolvimento. “A patente

é um bem industrial. As empresas costumam ser as principais interessadas em defender a propriedade intelectual”, diz a química Vanderlan Bolzani, diretora da Agência Unesp de Inovação, escritório da Universidade Estadual Paulista (Unesp), instituição que figura em 8º lugar no ranking do Inpi, com 33 patentes depositadas em 2015. “O Brasil, com um sistema de ciência e tecnologia jovem e ainda em consolidação e um setor privado historicamente avesso a riscos, só recentemente colocou essa preocupação na sua agenda.” Brasil, Estados Unidos e Alemanha têm desempenhos distintos na produção de inovações e na proteção da propriedade intelectual. Tome-se como exemplo um indicador usado pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE) para avaliar o impacto internacional de patentes e comparar a capacidade tecnológica dos países: as famílias de patentes triádicas (FPT). Em linguagem simples, são as patentes obtidas em mais de um país com o objetivo de obter proteção ampla a uma invenção. Empresas e instituições brasileiras solicitam entre 50 e 60 famílias de patentes triádicas por ano, enquanto as dos Estados Unidos pediram 14,2 mil


Campeões em patentes em três países n n n

Empresas Universidades e instituições públicas de pesquisa Instituição de pesquisa de direito privado

Pedidos de patente no Brasil As 10 organizações que mais obtiveram depósitos de patentes de invenção – 2015 Whirlpool

90

Universidade Federal de Minas Gerais

56

Universidade Estadual de Campinas

52

Universidade Federal do Paraná

50

Petrobras

48

Universidade de São Paulo

44

Fundação CPqD

37

Universidade Estadual Paulista

33

Vale S.A.

32 32

Universidade Federal do R. G. do Sul Fonte Inpi

Patentes concedidas nos Estados Unidos

ilustração bárbara malagoli

As 10 organizações que mais obtiveram registros de patentes de invenção – 2015

e as da Alemanha, 5,5 mil em 2013. “Essa disparidade parece revelar que, em geral e com as honrosas exceções de praxe, a maior parte das empresas no Brasil realiza pesquisa e desenvolvimento para objetivos relativamente modestos, ligados ao mercado interno, e com pouca chance de repercussão mundial, ao contrário das empresas de Estados Unidos, China, Espanha ou Alemanha. As características da economia brasileira parecem obstar a ousadia internacional de nossas empresas”, diz Carlos Henrique de Brito Cruz, diretor científico da FAPESP. Embora o protagonismo acadêmico nos rankings de patentes seja visto como uma distorção, existe uma preocupação mundial de aproximar universidade e setor produtivo e um esforço contínuo de instituições de pesquisa para levar o conhecimento à sociedade. Brasil, Estados Unidos e Alemanha dispõem de legislações que buscam transformar resultados científicos em aplicações no setor privado. Os Estados Unidos criaram em 1980 uma lei que se tornou referência para outros países, o Bayh-Dole Act, pavimentando o caminho para que empresas, universidades e instituições de pesquisa patenteassem e comercializassem

IBM

7.440

Samsung Canon Qualcomm Google

5.059 4.239 3.209 3.195

Toshiba

2.793

General Electric

2.629

Intel

2.625

Microsoft

2.471

Sony

2.448

Fonte USPTO/IPO

Patentes concedidas na Alemanha As 10 organizações que mais obtiveram registros de patentes de invenção – 2015 General Motors

436

Siemens

433

Audi Robert Bosch Schaeffler

372 283 247

Volkswagen

242

Denso

240

Toyota

231

Infineon

225

Sociedade Fraunhofer

220

Fonte  DLR /IFI Claims

pESQUISA FAPESP 249  z  43


Pesquisa empresarial e propriedade intelectual Efetividade do esforço de P&D em empresas para criação de ideias patenteáveis nos EUA (Brasil e outros países) Patentes por ano, de 2011 a 2015

Patentes de empresas

Patentes de empresas (em %)

Pesquisadores de empresas *

Patentes/10.000 pesquisadores (empresas)

estados unidos

129.766

JAPÃO

50.998

108.598

84

1.004.000

1.082

49.962

98

534.908

934

ALEMANHA

14.870

14.007

94

216.320

648

COREIA DO SUL

14.887

13.004

87

250.626

519

REINO UNIDO

5.643

5.232

93

108.614

482

ITÁLIA

2.355

2.163

92

47.816

452

FRANÇA

5.851

4.718

81

197.056

239

ÁFRICA DO SUL

149

93

63

6.192

151

ESPANHA

686

545

79

59.391

92

REPÚBLICA CHECA

152

137

90

16.698

82

POLÔNIA CHINA

118

79

67

14.299

55

5.818

5.023

86

1.072.087

47

BRASIL

264

214

81

67.427

32

FEDERAÇÃO RUSSA

386

303

79

202.185

15

*Pesquisadores atuando em pesquisa e desenvolvimento (P&D) em empresas em 2011. Nos Estados Unidos, em 2012. Fontes: Patentes: United States Patent and Trademark Office; Pesquisadores nas empresas: Main S&T Indicators/OCDE, Pintec/IBGE (Brasil) e Business Research and Development and Innovation /NSF (Estados Unidos)

invenções financiadas com recursos públicos. A Alemanha promoveu em 2002 uma reforma que tirou dos pesquisadores de universidades a liberdade de decidir patentear inovações resultantes de seu trabalho. As universidades passaram a ter essa primazia. No Brasil, o marco é a Lei de Inovação, de 2004, que, entre outras medidas, determinou que todas as instituições de ciência e tecnologia do país formassem Núcleos de Inovação Tecnológica (NIT), criados para a gestão de sua política de inovação. Dados dos relatórios do Formulário para Informações sobre a Política de Propriedade Intelectual das Instituições Científicas e Tecnológicas do Brasil (Formict), compilados por Carlos Américo Pacheco, professor do Instituto de Economia da Unicamp, mostram que o número de NITs funcionando no país aumentou de 19 em 2006 para 180 em 2014, e os diversos tipos de proteção, como patentes de invenção, registros de software e de marcas, entre outros, evoluíram no período de 680 para 2.026 no país, e de 37 para 137 no exterior. “É bastante impressionante ver o crescimento do número de patentes e a evolução das receitas declaradas com contratos de tecnologia, que passaram de menos de R$ 1 milhão em 2006 para cerca de R$ 338 milhões 44  z  novembro DE 2016

em 2014. As universidades responderam de forma muito positiva ao que lhes foi pedido com a Lei de Inovação. A esse aspecto positivo pode-se somar o estímulo ao empreendedorismo que essa mudança de cultura traz consigo. A dúvida é se esse movimento faz sentido em termos econômicos, porque patentes são também um custo”, afirma Pacheco, que é diretor-presidente do Conselho Técnico-Administrativo da FAPESP. Em 2000, 20 universidades concentravam 85% dos depósitos de patentes no país. Já em 2012, o percentual caiu para 60%, sinal de que mais instituições se engajaram nessa atividade. Júlio César Castelo Branco Reis Moreira, diretor de patentes do Inpi, acredita que os NITs estão reforçando nas empresas e nas universidades o interesse pela inovação. “Os núcleos ajudam a formar parcerias com empresas em estágios ainda iniciais da pesquisa.” inovação disruptiva

Precursora dos NITs, a Agência de Inovação Inova Unicamp se tornou referência entre as universidades brasileiras. Criada oficialmente em 2003, já existia desde os anos 1980 como Comissão Permanente de Propriedade Intelectual e Escritório de Transferência de Tecno-

logia (ver Pesquisa FAPESP nº 155). O estoque de tecnologias protegidas ultrapassou as 1.000 patentes ativas e 131 delas foram licenciadas para empresas. Em 2015, a receita de royalties atingiu R$ 2 milhões. “Nosso sonho é licenciar uma inovação disruptiva que gere recursos significativos”, diz Milton Mori, diretor-executivo da Inova Unicamp. A experiência dos NITs mostra que o investimento de universidades em patentes e no licenciamento de tecnologias não se justifica pelo potencial retorno financeiro direto, mas pela criação de um ambiente de inovação ao redor da instituição, capaz de gerar riqueza. Nesse aspecto, a Unicamp tem resultados significativos: são 434 as empresas incubadas na universidade ou criadas por pessoas com vínculos com a instituição. Essas empresas-filhas da Unicamp, em 2015, empregaram mais de 20 mil pessoas e faturaram mais de R$ 3 bilhões. Patentes acadêmicas custam bastante. Os dados da Associação de Gestores de Tecnologia de Universidades (AUTM) para 2015 mostram que as universidades norte-americanas aplicaram em pesquisa US$ 66,5 bilhões e solicitaram 15.953 patentes, uma média de US$ 4,2 milhões em pesquisa para cada patente. Na maioria dos casos, o licenciamento de tecno-


logias e a comercialização de patentes não cobrem os custos das agências de inovação. “Mesmo entre universidades norte-americanas, é preciso haver 100 parcerias entre universidades e empresas para gerar 10 patentes e uma delas ser licenciada”, diz Moreira, do Inpi. Não escapou dessa dificuldade nem mesmo a Universidade Stanford, pioneira na criação de um escritório de transferência de tecnologia em 1970. Num relatório recente, o escritório informou que, a partir de 2017, pela primeira vez em mais de três décadas, a taxa de 15% cobrada sobre os royalties de licenciamentos não será suficiente para bancar sua operação, por conta da perda de validade de patentes de alto valor econômico. Isso, apesar de Stanford obter 180 patentes por ano nos Estados Unidos e entre 20% e 25% dessas tecnologias serem licenciadas. Recentemente, a Agência Unesp de Inovação decidiu deixar de pagar as taxas cobradas pelo Inpi para manter dezenas de pedidos e registros de patentes que não encontraram interessados em licenciamento. Para manter um pedido de patente de invenção, o depositante precisa pagar uma taxa anual de R$ 295 – fora do prazo do vencimento, o valor vai a R$ 590. Depois que a patente é concedida, a anuidade custa de R$ 780 a R$ 2.000 – quanto mais antiga a patente, maior o valor. “Fizemos um protocolo para definir quais solicitações e registros de patentes devem ser abandonados, selecionando os muito antigos e que já foram oferecidos a várias empresas, sem sucesso”, diz Vanderlan. A agência foi criada há sete anos e sua equipe administra mais de 300 patentes. A universidade segue buscando

Estratégia da USP é licenciar patentes para empresas por valores simbólicos e renegociá-los depois de três anos

aplicações para suas tecnologias. Numa experiência-piloto, parte do portfólio de pedidos de patentes da Unesp está sendo avaliada para integrar um programa junto ao Centro Estadual de Educação Tecnológica Paula Souza e a outros agentes financiadores e será alvo de estudos de viabilidade técnica e econômica. “Espera-se que isso ajude a encontrar empresas e instituições que possam explorar as inovações da Unesp”, diz Vanderlan. redação de patentes

Outro destaque é o trabalho da Coordenadoria de Transferência e Inovação Tecnológica (CTIT) da UFMG. Responsável por 818 depósitos de patentes no país e mais de 200 no exterior, a CTIT já celebrou 87 contratos de licenciamento. Iniciou suas atividades há 20 anos, com foco em patentes, e, a partir de 2006, passou a trabalhar em outras frentes para transferir tecnologias. “Somos uma das poucas universidades do país em que as patentes são redigidas por uma equipe interna”, diz a coordenadora-geral da CTIT, Juliana Crepalde. A equipe de redação de patentes possui sete colaboradores e é composta por especialistas em química, farmacêutica e engenharia. “A maioria

A gestão da inovação nas universidades Núcleos de Inovação Tecnológica (NITs), proteção de propriedade intelectual (PI) e receitas de contratos de transferência de tecnologia de instituições de pesquisa no Brasil (2006-2014) Fontes  MCTI, Relatórios FORMICT

2006

2007

2008

2009

2010

2011

2012

2013

2014

NITs implementados

19

54

75

80

94

116

141

166

180

NITs em implementação

49

39

66

54

0

15

6

59

60

Receitas de contratos de transferência de tecnologia e licenciamento (R$ milhões)

0,8

5,0

13,2

67,5

191,0

218,6 285,3 302,7 338,5

Proteção de PI no Brasil

680

767

1021

1434

980

1463

1597

1744

2026

37

93

112

112

98

132

172

154

137

Proteção de PI no exterior

das agências contrata escritórios especializados para fazer isso.” Criada em 2005, a Agência USP de Inovação teve uma evolução notável. Há 15 anos, depositava entre 5 a 10 patentes por ano – atualmente, são entre 60 e 80 pedidos anuais. O licenciamento de tecnologias ainda é restrito, na casa dos cinco por ano. O físico Vanderlei Bagnato, coordenador da agência, conta que a crise econômica atrapalhou os planos de atingir uma receita de royalties de R$ 5 milhões – hoje, ela está próxima dos R$ 2 milhões. “Caiu o faturamento das empresas para as quais transferimos tecnologias e a arrecadação de royalties perdeu fôlego”, explica. “O interesse de empresas em licenciar patentes também diminuiu.” Para enfrentar a situação, a estratégia é negociar patentes a preços simbólicos. “Mas combinamos que daqui a três anos, a depender dos ganhos obtidos, voltamos a conversar. Estamos negociando com 20 empresas nesses termos”, diz. Outra preocupação é aproximar grupos de pesquisa da USP e empresas, na expectativa de que criem parcerias. “O número de novos projetos de empresas com a USP mantém-se na casa dos 70 a 90 por ano”, diz Bagnato. “As patentes resultantes dessas parcerias pertencem também às empresas.” A iniciativa da Agência USP de Inovação não é exemplo isolado. Há dois anos, a UFMG passou a divulgar o trabalho de seus grupos de pesquisa em busca de parcerias com empresas. Já foram negociados 90 acordos de codesenvolvimento, que integram equipes de pesquisadores da UFMG e de empresas parceiras. A agência Inova Unicamp tem procurado empresas não para oferecer patentes, mas para divulgar o trabalho de grupos da Unicamp com vocação para estabelecer parcerias. “Quando uma patente surge de um trabalho colaborativo entre universidade e empresa, as chances de que a empresa utilize aquela tecnologia é bem maior”, diz Milton Mori. n Fabrício Marques pESQUISA FAPESP 249  z  45


ciência  ECOLOGIA y

Os efeitos danosos da caça ilegal


Tipo exportação: 183 mil onças (na página à esq.) e 804 mil jaguatiricas (ao lado) e gatos maracajás morreram na Amazônia no século XX, vítimas de caça; abaixo, peles expostas em curtume de Manaus na década de 1950

3

2 1

Proibida no país desde os anos 1960, a atividade reduziu a população de várias espécies de animais e elevou o risco de desequilíbrio ambiental

fotos 1 Povo indígena Paumari, André P. Antunes e Eduardo Von Muhlen 2 milene thyssen / wikipedia  3 Biblioteca Virtual do IBGE

André Julião e Ricardo Zorzetto

O

período entre os anos 1930 e 1960 é chamado de “época da fantasia” em muitas partes da Amazônia. “Fantasia” eram as peles de felinos exportadas para o mercado da moda norte-americano e europeu. Só a venda de pele das espécies mais exploradas – que incluíam jacarés, peixes-boi, veados, porcos-do-mato, capivaras e ariranhas – movimentou cerca de US$ 500 milhões (em valores atuais) durante o auge desse comércio. De 1904 a 1969, algo em torno de 23 milhões de animais silvestres de ao menos 20 espécies foram mortos para suprir o consumo de couros e peles. Esses dados, apresentados em um artigo publicado em outubro na revista Science Advances, referem-se apenas ao que ocorreu nos estados de Rondônia, Acre, Roraima e Amazonas.

O biólogo André Antunes, primeiro autor desse trabalho, calculou o número de animais abatidos no período ao combinar as informações disponíveis nos registros comerciais e portuários com as anotadas nos chamados manifestos de carga, relações detalhadas dos materiais transportados pelos navios que partiam do interior da Amazônia para o porto de Manaus. Com os dados coletados durante o doutorado no Instituto Nacional de Pesquisas da Amazônia (Inpa), Antunes, em colaboração com outros pesquisadores do Brasil, da Nova Zelândia, da Inglaterra e dos Estados Unidos, conseguiu reconstituir a história do comércio de peles na Amazônia ocidental durante boa parte do século XX e ter uma ideia mais clara de seu impacto sobre as populações das espécies mais caçadas. pESQUISA FAPESP 249  z  47


Presa fácil: encontradas geralmente em bandos, as capivaras e os caititus (página ao lado) estão entre os animais mais caçados na Amazônia

“A maior parte dos registros se perdeu”, conta o parte do tempo na água e parte em terra, como as biólogo, atualmente pesquisador da Wildlife Con- capivaras (Hydrochoerus hydrochaeris), as ariraservation Society, organização não governamental nhas (Pteronura brasiliensis) e as lontras (Lontra com foco na conservação da fauna na Amazônia longicaudis). Também morreram 4,4 milhões de e em outras regiões do mundo. “A sorte é que os jacarés-açu (Melanosuchus niger), um dos maiodados que restaram são muito detalhados.” Em res predadores da Amazônia, com seus 4,5 mealguns casos, porém, os documentos não infor- tros de comprimento em média, cobiçados pelo couro negro. “A extração de sua mavam de que animal eram as pele motivou o aparecimento peles transportadas; em outros, de grandes curtumes em Madeclaravam apenas o peso do naus e Belém”, conta Antunes. material – e de certos períoAnalisando como a caça evodos não há informação. Essa O período entre luiu na Amazônia ao longo desdescontinuidade nos registros os anos 1930 se tempo, eles concluíram que exigiu modelagem computacioas espécies aquáticas descrinal para estimar, com base na e 1960 é tas no estudo estiveram muito tendência geral e em probabipróximas de desaparecer em lidade estatística, o número de chamado de boa parte da região: deixaram peles de cada espécie comerde ser vistas por muito tempo cializado no período. “época da nas áreas em que costumavam Em pouco mais de 60 anos, fantasia” na ser abundantes, de acordo com calculam os pesquisadores, forelatos de moradores. Já as poram abatidos na Amazônia pelo Amazônia pulações de espécies terrestres menos 13,9 milhões de mamífese recuperaram razoavelmente ros terrestres de seis espécies: bem, como indica a produção caititu (Pecari tajacu), veadoestável de peles ao longo das -mateiro (Mazama americana), queixada (Tayassu pecari), jaguatirica (Leopardus décadas. Seria um sinal de resiliência diante da pardalis), gato-maracajá (Leopardus wiedii) e on- pressão de caça. Dois fatores ajudam a explicar a vulnerabilidaça-pintada (Panthera onca). Entre esses, os caititus, talvez por serem mais numerosos, parecem de maior dos animais aquáticos. O primeiro é que ter sido a caça preferida: 5,4 milhões morreram algumas espécies de mamíferos que passam ao de 1904 a 1969. No mesmo período, os caçadores menos parte do tempo na água costumam apreabateram 804 mil jaguatiricas e gatos-maracajá, sentar uma baixa taxa reprodutiva. Ariranhas e além de 183 mil onças-pintadas, o maior felino das peixes-boi, por exemplo, não geram muitos fiAméricas – quase 8 mil onças foram mortas em lhotes a cada gestação – e as gestações ocorrem a 1969, dois anos após a proibição da caça no país. intervalos longos. Outro fator é que os mamíferos As estimativas também apontam a morte de 1,9 aquáticos parecem estar mais expostos aos seres milhão de mamíferos aquáticos, como o peixe- humanos. “Na Amazônia, as ocupações humanas -boi (Trichechus inunguis), e outros que passam historicamente se localizaram à beira dos rios”, 48  z  novembro DE 2016

fotos 1 eduardo cesar 2 wing-chi poon / wikipedia infográfico Antunes et al. Science Advances. 2016

1


Os mais procurados Número de exemplares mortos das 10 espécies mais caçadas e a variação no preço de suas peles Número de animais caçados

Valor (na cotação atual da moeda)

Terrestres

Número de animais caçados

Caititu

Aquáticos / Semiaquáticos

Valor (na cotação atual da moeda)

jacaré-açu US$ 50

400.000

US$ 200

US$ 25

200.000

US$ 100

400.000 200.000

veado-mateiro

Capivara

US$ 50

US$ 30

200.000 US$ 25

100.000

US$ 20

50.000

US$ 10

queixada

US$ 40

ariranha

60.000

US$ 500

300.000

40.000

200.000

US$ 20

100.000

US$ 250

20.000

jaguatirica e gato maracajá

lontra US$ 500

100.000

US$ 250

50.000

40.000

US$ 100

20.000

US$ 50

onça-pintada

Peixe-boi

40.000

US$ 500

20.000

US$ 250

1900

2

1910

1920

1930

1940

1950

1960

1970

US$ 500 10.000

US$ 250

1980

1900

2

1910

1920

1930

1940

1950

1960

1970

1980

explica Antunes. “O acesso por embarcações facilita a obtenção de animais aquáticos e o transporte de suas peles, enquanto os bichos que vivem nas matas de terra firme têm mais refúgio e estão longe das comunidades ribeirinhas”, conta. Ao confrontar a tendência de caça com fatos históricos do século XX, os autores do trabalho identificaram as causas econômicas que impulsionaram a exploração comercial da fauna silvestre amazônica. Por volta de 1910, a economia da região entrou em colapso com a disseminação da produção de látex na Malásia, que levou à perda de competitividade do produto brasileiro. O comércio de peles, até então reduzido e focado na exploração do veado-mateiro, tornou-se uma alternativa de geração de renda para parte dos 500 mil imigrantes que haviam chegado à região nas décadas anteriores e para os indígenas que participaram do ciclo da borracha. pESQUISA FAPESP 249  z  49


1 1

Apesar da interdição em vigor há quase cinco décadas, a caça continua a ser praticada em todo o país

De 1930 a 1960, a caça comercial passou a ser uma das principais atividades extrativistas da Amazônia. Só em 1967, com a Lei da Fauna, a prática tornou-se proibida. Mesmo assim, segundo Antunes, a edição de portarias que permitiam liquidar os estoques intensificou o comércio ilegal de peles na região no início dos anos 1970. O encolhimento das populações

Apesar da interdição em vigor há quase cinco décadas, a caça continua a ser praticada em todo o país. Um dos ambientes em que o prejuízo se torna evidente é a Mata Atlântica. Um estudo sobre os mamíferos silvestres no maior remanescente contínuo dessa floresta, na porção leste do estado de São Paulo, indica que, onde a caça persiste, ela causa a extinção local de animais de grande porte, como o queixada e a anta (Tapirus terrestris). Esses grandes mamíferos desempenham um papel fundamental na dispersão de sementes, na fertilização do solo e na renovação da floresta. Nesse trabalho, coordenado pelo biólogo Mauro Galetti, professor do Departamento de Ecologia da Universidade Estadual Paulista (Unesp) em Rio Claro, os pesquisadores percorreram por volta de 4 mil quilômetros em 13 áreas na serra do Mar e registraram a densidade de 44 espécies de mamíferos e a biomassa total de oito delas. “Ter muitos mamíferos não basta”, afirma o ecólogo Ricardo Bovendorp, pesquisador que atualmente faz um estágio de pós-doutorado na Unesp. “É preciso que haja animais grandes, como antas e queixadas, que não têm substitutos para as funções ecológicas que exercem no ecossistema”, explica o pesquisador, um dos autores do artigo que descreveu os resultados em uma edição recente da Animal Conservation. 50  z  novembro DE 2016

Uma das causas da caça disseminada de animais silvestres é a falta de proteção efetiva em áreas de proteção ambiental. “No Parque Estadual da Ilha do Cardoso, no litoral sul, dois dos 34 queixadas que estamos monitorando com radiocolar foram caçados”, afirma Galetti. A equipe da Unesp observou ainda que áreas de caça intensa podem abrigar um número semelhante de mamíferos do que regiões nas quais não se matam animais. A diferença é que, onde se caça, praticamente só são encontrados animais de pequeno porte, como saguis e roedores, o que pode acarretar um desequilíbrio ambiental irreversível. “Sem grandes mamíferos, as plantas com sementes grandes correm o risco de desaparecer”, conta a ecóloga Carolina Bello, aluna de doutorado de Galetti. No final de 2015, ela e Galetti publicaram na Science Advances um estudo mostrando que a redução da fauna na Mata Atlântica afeta a capacidade da floresta de retirar carbono da atmosfera. O impacto da caça nas populações dos grandes mamíferos não é exclusivo do Brasil. Galetti e o ecólogo brasileiro Carlos Peres, professor da Universidade de East Anglia, na Inglaterra, participaram de um estudo internacional que avaliou o estado de preservação de 301 espécies de mamíferos de diferentes regiões do mundo que correm o risco de extinção por causa da caça. A matança de animais para a alimentação ou a retirada de marfim, chifres ou ossos – os dois últimos, com fama medicinal na Ásia – vem dizimando algumas populações, segundo o trabalho publicado em outubro na revista Royal Society Open Science. “Só os elefantes africanos perderam metade de sua população nos últimos 30 anos devido à caça e à perda de hábitat”, conta Peres.

Vulnerabilidade na água: dos 113 mil peixes-boi capturados no século passado, 15 mil foram mortos apenas em 1938


2

fotos 1 Léo Ramos Chaves, feita no aquário de São Paulo 2 Whaldener Endo / wikipedia 3 charlesjsharp / wikipedia

O jacaré-açu, um predador cobiçado por seu couro negro; a anta, dispersora de sementes que desapareceu de alguns trechos da Mata Atlântica

De acordo com o levantamento, a maioria dos mamíferos ameaçados pela caça está em regiões com grandes desigualdades sociais. Nesses locais, os animais silvestres servem como fonte de renda e de proteína e são capturados por meio de armadilhas, o que amplia os danos. Estudos realizados na África Central mostram que um quarto dos animais pegos em armadilhas apodrece na natureza ou é consumido por outros animais. Outro terço escapa com ferimentos e pode morrer horas ou dias depois. Um levantamento anterior feito em uma área de conservação do Zimbábue verificou que 1,4 mil grandes mamíferos apanhados em armadilhas apodreceram entre 2005 e 2009. Além do desperdício, essa forma de caça muitas vezes resulta na captura de fêmeas, que podem estar prenhes, e de indivíduos jovens, que teriam uma longa vida reprodutiva pela frente – situações muito danosas para algumas espécies. Permissão controlada

Diante desse cenário, os pesquisadores defendem que, em algumas regiões, a proibição total seja mais nociva do que permitir a captura de animais sob condições específicas e rigorosa fiscalização. A ideia não é nova. Na maior parte dos Estados Unidos a caça do veado-galheiro (Odocoileus virginianus) é permitida e sua população se mantém estável. “Esse é um dos mamíferos de grande porte mais bem estudados no mundo, até porque se precisa ajustar as cotas de abate sustentável”, afirma Peres, que também colaborou com o estudo da Science Advances. Peres e Antunes propõem que, no Brasil, alguns mecanismos poderiam permitir que populações tradicionais da Amazônia fossem autorizadas a caçar determinadas espécies de animais, ape-

3

nas com a finalidade de subsistência – a Lei dos Crimes Ambientais, de 1998, permite a caça em situações excepcionais, como a de extrema necessidade; outra lei, que em 2000 estabeleceu o Sistema Nacional de Unidades de Conservação, garante o acesso das populações tradicionais aos recursos naturais, como forma de valorizar o seu conhecimento e a sua cultura. Os pesquisadores ressaltam, no entanto, que essa permissão só poderia ocorrer mediante um manejo bastante criterioso e continuado, em regiões largamente cobertas por florestas e sem estradas, de preferência em unidades de conservação. Esse modelo, afirmam, só seria aplicável a algumas regiões da Amazônia. “Na Mata Atlântica contemporânea, seria inimaginável”, afirma Peres. A ideia seria fazer algo nos moldes do manejo do pirarucu (Arapaima gigas) realizado em partes da Amazônia. A captura do pirarucu, um dos maiores peixes de água doce do mundo, é proibida na região. Mas o manejo comunitário feito em algumas reservas de desenvolvimento sustentável e territórios indígenas vem tornando possível a pesca sustentável e o aumento da população (ver Pesquisa FAPESP nº 248). Os pesquisadores propõem algo semelhante para a caça. Peres sugere que seria possível estipular as espécies permitidas para a caça – por exemplo, aquelas com alta taxa reprodutiva – ou restringir a captura apenas a machos adultos. “Desse modo”, sugere Antunes, “talvez se torne possível suprir a necessidade de populações tradicionais e manter estável a população dessas espécies de animais”. n

Artigos científicos ANTUNES, A. P. et al. Empty forest or empty rivers? A century of commercial hunting in Amazonia. Science Advances. 12 out. 2016. GALETTI, M. et al. Defaunation and biomass collapse of mammals in the largest Atlantic forest remnant. Animal Conservation. No prelo. RIPPLE, W. J. et al. Bushmeat hunting and extinction risk to the world’s mammals. Royal Society Open Science. v. 3 (20). set. 2016.  CAMPOS-SILVA, J. V e PERES, C. A. Community-based management induces rapid recovery of a high-value tropical freshwater fishery.  Scientific Reports. 12 out. 2016.

pESQUISA FAPESP 249  z  51


Bioquímica y

Exemplares como esse de Nephilingis cruentata conseguem memorizar informações e aperfeiçoar instintos básicos, como os ligados à construção da teia 52  z  novembro DE 2016


Antes da primeira mordida Aranha-gigante despeja sobre suas presas suco rico em enzimas que inicia a digestão Rodrigo de Oliveira Andrade

léo ramos

C

om um volumoso abdômen estriado de amarelo e preto, as aranhas-gigantes impressionam por sua voracidade. Habituadas a comerem grilos, baratas e outros insetos, essas aranhas já foram flagradas consumindo presas bem maiores do que elas próprias, como lagartixas e até mesmo pequenas aves. Há tempos os especialistas em aracnídeos se perguntavam como tal proeza ocorria. Um trabalho coordenado pela bioquímica Adriana Lopes, do Instituto Butantan, em São Paulo, começa a apresentar algumas respostas. Tão logo o jantar se enrosca na teia e é imobilizado pela injeção do veneno, as aranhas-gigantes (Nephilingis cruentata) regurgitam sobre ele um líquido espesso e amarronzado que dissolve seus tecidos, transformando-os em uma gororoba pastosa. Desse modo, as aranhas-gigantes conseguem se alimentar lentamente de suas presas, consumindo pequenas partes pré-digeridas. Por muito tempo

se pensou que o líquido lançado sobre a presa fosse o próprio veneno, produzido por uma glândula próxima à boca das aranhas. Ao estudar a digestão da N. cruentata detalhadamente, o grupo de Adriana verificou que esse líquido, na verdade, é o fluido digestivo, rico em enzimas que a ajudam a digerir suas presas. Facilmente encontradas em jardins, próximas a luminárias, em cantos de paredes ou canteiros de obras, as aranhas-gigantes apresentam um dimorfismo sexual marcante. As fêmeas em geral são bem maiores que os machos. Algumas podem chegar a 4 centímetros (cm) de comprimento. Os machos, por sua vez, têm em média 0,5 cm. Apesar do tamanho, grande o suficiente para deixar de cabelo em pé qualquer pessoa que tenha um leve temor de aranhas, seu veneno é inofensivo para os seres humanos. Nos insetos, porém, ele age sobre o sistema nervoso e causa paralisia — sem, no entanto, matar. As presas costumam estar pESQUISA FAPESP 249  z  53


Encontradas em jardins ou próximas a luminárias, essas aranhas podem ficar meses sem comer

vivas quando são cobertas pelo fluido e começam a ser parcialmente digeridas. A curiosidade sobre a digestão da Nephilingis cruentata levou a equipe de Adriana a iniciar anos atrás a análise da composição química do fluido digestivo dessas aranhas. Em uma busca rápida nos arredores do Instituto Butantan, eles coletaram 10 exemplares. De volta ao laboratório, os pesquisadores os alimentaram e os induziram a produzir o fluido digestivo por meio de estímulos mecânicos e elétricos. Em seguida, fizeram a caracterização química das amostras. Os pesquisadores verificaram que o fluido digestivo era sintetizado nas células secretoras do intestino e que era muito rico em enzimas que quebram ou transformam proteínas, gorduras e açúcares em moléculas menores, que podem ser convertidas em energia mais facilmente. Ao todo, eles caracterizaram quase 400 enzimas, conforme descreveram em um estudo publicado em setembro na revista científica BMC Genomics. 54  z  novembro DE 2016

Entre as carboidrases, enzimas que digerem carboidratos (açúcares), o grupo de Adriana identificou uma produção de grandes concentrações de quitinases, especializadas na degradação de quitina, polímero natural responsável pela dureza do exoesqueleto de artrópodes. Dentre as enzimas proteolíticas, que degradam proteínas, as astacinas foram as sintetizadas em maior quantidade. Essas enzimas são comumente encontradas na maioria dos seres vivos. Mas, segundo Adriana, é a primeira vez que se verifica a produção de uma variedade tão ampla de astacinas e em níveis tão elevados. “Identificamos 25 tipos de astacinas no fluido digestivo dessas aranhas”, ela diz. Por meio de técnicas de bioinformática, os pesquisadores fizeram um estudo filogenético dessas enzimas. Softwares específicos analisaram as sequências de DNA que compõem os genes contendo a receita das astacinas da aranha-gigante e as compararam com as produzidas por outras aranhas e outros artrópodes. Os resultados sugerem que as aranhas evolutivamente mais primitivas produzem menos astacinas do que as que surgiram mais recentemente. Os dados apresentados no artigo ainda são preliminares, explica Adriana, mas dão margem para algumas interpretações. Uma delas

é que a digestão em duas fases — uma extracorpórea e outra intracelular — seria uma característica selecionada ao longo de milhões de anos, permitindo a essas aranhas passar longos períodos sem se alimentar. “A Nephilingis cruentata pode ficar sem comer por até um ano”, conta Adriana. “Nessas aranhas, a superprodução dessas enzimas se justificaria pela necessidade de realizar uma digestão que aproveite ao máximo todos os nutrientes.” Uma evidência obtida pelo grupo de Adriana reforça essa hipótese. Ela e seus colaboradores verificaram que, após a aranha ingerir toda a presa, inicia-se uma segunda fase da digestão, agora dentro das células. Nas células do intestino, a parte dos nutrientes que não foi transformada pelo fluido digestivo é transportada para o interior dos vacúolos digestivos, compartimentos intracelulares repletos de enzimas que fragmentam proteínas provavelmente formados pela fusão dos lisossomos com vesículas contendo nutrientes. Em análises de microscopia, os pesquisadores identificaram grandes quantidades de açúcares e lipídios estocados em células de reserva conectadas ao intestino das aranhas-gigantes. Possivelmente é essa reserva que provê os nutrientes neces-


Após capturar sua presa, as aranhas regurgitam sobre elas um líquido que dissolve seus tecidos, facilitando a ingestão de partes pré-digeridas

sários para manter essas aranhas vivas durante os longos períodos de escassez de alimentos.

fotos  léo ramos

Indo à caça

Em uma linha de trabalho paralela à de Adriana, o biólogo Hilton Japyassú, no Instituto de Biologia da Universidade Federal da Bahia (UFBA), investiga a flexibilidade de comportamentos supostamente fixos da N. cruentata. Segundo ele, essas aranhas são capazes de memorizar informações e de aprender com as experiências vividas, aperfeiçoando instintos básicos como os ligados à caça e à construção da teia. Japyassú começou a estudar a espécie há quase 10 anos, quando ainda estava no Laboratório de Artrópodes do Instituto Butantan. Em suas pesquisas, ele verificou que essas aranhas podem alterar seu comportamento de caça ou de construção da teia de acordo com o tamanho das presas que pretendem capturar. As aranhas-gigantes produzem dois tipos de fio de seda, um seco e outro mais viscoso. Para tecê-los, elas usam diferentes fiandeiras, estruturas associadas a glândulas de seda localizadas na parte de trás do abdômen. Os dois tipos de seda são usados em partes distintas da teia. Os fios secos, por exemplo, dão forma à estrutura da teia, constituída pelos raios;

pela espiral seca, construída do centro para as bordas; pelos fios de quadro, que sustentam toda a espiral; e pelo refúgio, conectado à região central onde as aranhas ficam à espera da presa. Os fios viscosos, por sua vez, compõem a espiral adesiva da teia, responsável pela captura. Quando apanham uma presa grande, as aranhas cortam os fios que sustentam a teia, fazendo-a envolver o futuro jantar e limitar os seus movimentos. Já as presas pequenas são imobilizadas com a injeção de veneno, que as paralisa. Parte dessa plasticidade é decorrente da memória de eventos predatórios anteriores. Segundo o pesquisador, as aranhas são capazes de se lembrar de diferentes aspectos de suas presas, como o tamanho ou o tipo, e também de se recordar do número de animais capturados previamente. Um indício disso é que as dimensões gerais, o formato e o espaçamento entre as espiras da teia levam em conta a frequência e o tamanho dos animais capturados. A caçada começa quando a aranha direciona a sua atenção para certos setores da teia, geralmente aqueles em que as presas caem com mais frequência. Ela vigia esses setores mantendo tensionados alguns de seus fios com as pernas dianteiras. Essa tensão permite filtrar certos tipos de vibração e detectar as mais sutis. “Quanto

mais famintas, mais as aranhas tensionam os fios”, explica o biólogo. “Desse modo, vibrações antes imperceptíveis, produzidas por presas pequenas, passam a ser alvo de sua atenção.” O passo seguinte da caçada é a captura. Assim que um inseto cai na teia, a aranha corre em direção à presa, aproxima-se dela e, a depender das circunstâncias, alimenta-se ali mesmo ou a envolve em mais fios de teia antes de levá-la para um refúgio onde se encontram as capturadas anteriormente. Analisando a caça dessas aranhas, Japyassú constatou que essas táticas apresentam sinais filogenéticos. Isso significa que certos comportamentos evoluíram ao longo do tempo, sendo modificados e transmitidos para o repertório comportamental de outras aranhas de maneira sistemática como resposta a estímulos do ambiente em que elas vivem. É como se essas táticas envolvessem comportamentos cuja organização no cérebro das aranhas é facilitada. O que explicaria o aprimoramento de certos comportamentos? Para Japyassú, seria a capacidade de aprender, característica do cérebro. “À medida que a aranha vive novas experiências, certos comportamentos são aprimorados em resposta aos desafios impostos pelo ambiente.” n

Artigos científicos FUZITA J. F. et al. High throughput techniques to reveal the molecular physiology and evolution of digestion in spiders. BMC Genomics. v. 17 (716), p. 1-19. 2016. JAPYASSÚ‚ H. F. et al. Predatory plasticity in Nephilengys cruentata (Araneae: Tetragnathidae): Relevance for phylo­geny reconstruction. Behaviour. v. 139 (4), p. 529-44. 2002.

pESQUISA FAPESP 249  z  55


neurociência y

Cantadas constantes Mecanismos neuronais explicam a estabilidade vocal de passarinhos Maria Guimarães e Rodrigo de Oliveira Andrade

Mandarim: muito usado em experimentos comportamentais

56  z  nononononono DE 2016

Q

uem já ouviu o insistente canto do sabiá-laranjeira durante os dias, ou em horas inusitadas das madrugadas de primavera nas cidades brasileiras, há de ter percebido as notas repetidas incansavelmente. Uma possível explicação para os aspectos repetitivos desse canto acaba de surgir do estudo do cérebro de outro passarinho: o mandarim (Taeniopygia guttata), uma espécie muito usada em experimentos comportamentais em laboratório. Um dos tipos de células da complexa e adaptável rede neuronal responsável pelas manifestações vocais em pássaros canoros se mantém estável nos mandarins, de acordo com artigo publicado em outubro na Nature Neuroscience. “O canto dos adultos tem repetições praticamente idênticas umas às outras”, explica o neurocientista Tarciso Velho, professor no Instituto do Cérebro da Universidade Federal do Rio Grande do Norte (UFRN) e um dos autores do estudo. “Isso faz desses animais um modelo ideal para o estudo da relação entre a atividade neuronal e o comportamento.” O grupo, coordenado pelo físico norte-americano Timothy Gardner, da Universidade de Boston, nos Estados Unidos, analisou a ação de dois grupos de neurônios em uma área específica do cérebro responsável pelo controle do canto, conhecida como HVC. Os neurô-


foto Peripitus / wikimedia commons   infográfico ana paula campos  ilustraçãO pedro hamdan

nios inibitórios têm uma ação intensa local, dentro do HVC. A hipótese vigente é de que quando a atividade deles diminui, outro tipo de célula neuronal, os neurônios excitatórios, entra em ação e ativa uma cadeia de neurônios que controla a musculatura ligada à produção do canto. O mistério quanto à estabilidade vocal vem da plasticidade que caracteriza o núcleo cerebral que controla o canto. No cérebro do pássaro, e em algumas áreas do de mamíferos, há um processo constante em que algumas células morrem enquanto novas são geradas. Além disso, mesmo em uma população estável de células, as conexões entre elas podem passar por rearranjos. Essas alterações na conectividade neuronal são interpretadas como as bases neurais do aprendizado, um processo no qual o sono parece exercer um papel importante. “Quando registramos imagens durante o canto, observamos que a atividade dos neurônios excitatórios variava de um dia para o outro, com células entrando e saindo do conjunto que participava da produção do canto, de maneira que os participantes da atividade neural não eram sempre os mesmos”, explica Velho. Mas apesar desse cenário dinâmico, o canto permanece estável. O segredo parece estar nas células inibitórias: nos experimentos feitos em Boston, sua atividade variou pouco. Isso parece ser responsável pela constância de um atributo central ao reconhecimento dentro da espécie, sem o qual as fêmeas teriam mais dificuldade de encontrar seus pares reprodutivos.

Opostos que se completam Interação entre populações distintas de células mantém canto constante Neurônio inibitório

Cérebro

HVC Neurônios excitatórios

De ação estável, os neurônios inibitórios modulam o fluxo de informação entre o centro de controle do canto e outras áreas do cérebro

HVC

A cabeça por dentro

Esses resultados foram possíveis graças a minúsculos equipamentos desenvolvidos por Gardner. “Se o pássaro fica preso, ele não canta”, explica Velho. “Precisamos deixá-lo solto na gaiola, com aparelhos que não atrapalhem a sua movimentação.” Atendendo a essa necessidade, os pesquisadores implantaram eletrodos no cérebro dos passarinhos para monitorar as células inibitórias por vários meses. Ainda mais impressionantes são microscópios miniaturizados pesando menos de 2 gramas. Produzidos com o auxílio de uma impressora 3D, esses microscópios foram implantados no cérebro dos pássaros e permitiram detectar a fluorescência

Os neurônios excitatórios disparam apenas quando o outro grupo está menos ativo, produzindo o canto

Fonte tarciso velho / ufrn

emitida pela atividade das células excitatórias graças a uma proteína inserida por meio de vírus para funcionar como sensor de cálcio – elemento central à atividade elétrica dos neurônios. “Ambos os métodos permitiram fazer registros do cérebro em aves que estavam acordadas, se comportando e movimentando livremente”, afirma Gardner. Para o físico norte-americano, o comportamento distinto que essas técnicas detectaram nos dois tipos de células é o que está por trás da estabilidade do canto. Mesmo que a atividade de cada neurônio excitatório varie, eventuais falhas são compensadas pela ação de células vizinhas, que tendem a disparar simultaneamente. “Essa redundância sugere que, se uma célula deixa de funcionar, outra poderá desempenhar um papel semelhante e manter a estabilidade da rede e, consequentemente, o resultado motor”, analisa. O estudo mostrou também que a ação local das células inibitórias é o que modula o funcionamento dessa rede. “Neurônios individuais poderiam otimizar sua atividade dentro de uma estrutura maior que permanece imutável por anos.” Com seus comportamentos previsíveis e inalterados na vida em gaiola imposta pela condição de cobaia de laboratório, os mandarins são os queridinhos de pesquisadores concentrados em compreender o desenvolvimento vocal – um comportamento aprendido, repetitivo e estereotipado. Gardner defende que eles podem contribuir ainda para a elucidação de aspectos da fala humana. “Redes neurais no cérebro de mamíferos precisam resolver problemas semelhantes”, diz. “Seria interessante investigar se esses programas motores são controlados e mantidos de maneira parecida.” Dizem que uma vez que se aprende a andar de bicicleta, nunca mais se esquece. Resta saber se mecanismos envolvendo neurônios inibitórios e excitatórios podem estar por trás desse tipo de capacidade motora de longa duração. n

Artigo científico LIBERTI III, W. A. et al. Unstable neurons underlie a stable learned behavior. Nature Neuroscience. On-line. 10 out. 2016.

pESQUISA FAPESP 249  z  57


GEOLOGIA y

Imagem aérea de São Pedro e São Paulo: ilhas formadas por rochas que se originaram a mais de 10 km de profundidade

T

homas Campos conhece o arquipélago de São Pedro e São Paulo como a palma de sua mão. O geólogo recifense, professor da Universidade Federal do Rio Grande do Norte (UFRN), já visitou 17 vezes as cinco pequenas ilhas rochosas, cuja área total não cobre um campo de futebol. Suas viagens a esse arquipélago no meio do oceano Atlântico equatorial, distante cerca de mil quilômetros (km) de Natal, na costa brasileira, começaram em 1999, como parte do projeto Proarquipélago, da Comissão Interministerial para os Recursos do Mar (CIRM). Desde 1998, o programa da CIRM mantém os inóspitos rochedos sempre habitados por duas a quatro pessoas – em geral geólogos, biólogos, oceanógrafos ou meteorologistas – que 58  z  novembro DE 2016

conduzem pesquisas em meio aos outros únicos habitantes das ilhas, as aves viuvinhas e atobás. A atividade científica serve a um objetivo estratégico: pelas leis internacionais, só a presença permanente de cidadãos brasileiros nessas ilhas garante ao país o direito de explorar uma área de 200 milhas náuticas em torno delas – é a chamada zona econômica exclusiva ou ZEE –, em uma região do Atlântico rica em cardumes de albacora, atum e outros peixes de alto valor comercial. Durante a visita deste ano, Campos mostrou as rochas do arquipélago ao colega italiano Daniele Brunelli, da Universidade de Módena e Régio Emília, na Itália, especialista na geologia do fundo do Atlântico. “You kill me!”, exclamou Brunelli, diante de rochedos de peridotito, uma rocha típica da parte superior do

manto, região do interior da Terra situada a 6 km abaixo do assoalho oceânico – as rochas do manto raramente afloram à superfície do planeta. Brunelli já vira esse tipo de rocha antes no Atlântico, mas da janela de submarinos, explorando fendas a mais de 4 km de profundidade no mar. De todas as ilhas oceânicas do mundo, só as de São Pedro e São Paulo são feitas de rochas que vieram do manto superior para a superfície – e continuam conectadas ao manto. Entre janeiro e fevereiro de 2013, Campos e Brunelli participaram do Cruzeiro Colmeia, uma expedição a bordo do navio francês L’Atalante, integrando uma equipe de pesquisadores europeus e brasileiros coordenada por Márcia Maia, geofísica ligada ao Centro Nacional de Pesquisa Científica (CNRS), da França.


As entranhas expostas da Terra Mapeamento submarino ajuda a recontar a origem inusitada do arquipélago de São Pedro e São Paulo

Marinha do brasil

Igor Zolnerkevic

A missão da viagem, concebida por Márcia e pela oceanógrafa Susanna Sichel, da Universidade Federal Fluminense (UFF), em Niterói, foi mapear centenas de quilômetros do relevo submarino em torno do arquipélago usando sonares de alta precisão e outros equipamentos geofísicos. A partir dos dados coletados na viagem, Márcia e sua equipe imaginam ter elucidado o mistério de como essas ilhas começaram a se erguer do fundo do mar há 11 milhões de anos. As conclusões desse estudo, apresentadas em julho na revista Nature Geo­ science, resolvem um enigma geológico de quase 200 anos. Em 1832, o naturalista inglês Charles Darwin foi um dos primeiros exploradores a notar que as rochas desse arquipélago não eram de origem vulcânica, como as de Fernando de No-

ronha. Assim como a maioria das ilhas oceânicas do planeta e a base rochosa dos oceanos (crosta oceânica), Fernando de Noronha é formada por camadas de rochas originadas da atividade vulcânica, como o basalto e o gabro. “Ao longo do século XX ficou claro que as rochas de São Pedro e São Paulo eram diferentes e vinham diretamente do manto terrestre”, explica Márcia. “Mas ninguém entendia como elas haviam se elevado quase 10 km e despontado acima do nível do mar”, conta a geofísica brasileira. Após se graduar na Universidade Estadual do Rio de Janeiro (Uerj) em 1983, Márcia fez sua carreira científica na França, estudando ilhas e regiões submarinas do Pacífico, do Índico e do Atlântico. Ela explica que, enquanto trechos da litosfera dos continentes po-

dem guardar histórias de até 4,5 bilhões de anos atrás, a litosfera dos oceanos é renovada continuamente e permite conhecer o que ocorreu apenas nos últimos 200 milhões de anos. O Atlântico, por exemplo, começou a se formar 170 milhões de anos atrás (ver Pesquisa FAPESP nº 248). No interior da Terra, quando as rochas do manto superior atingem a temperatura de 1.300 ºC, por volta de 100 a 200 km abaixo da superfície, elas se comportam como um fluido viscoso que se movimenta lentamente ao longo de milhões de anos. Mudanças nas correntezas desse fluido ocorridas por volta de 170 milhões de anos atrás começaram a fraturar o interior do supercontinente Pangea, que se partiria nos pedaços que originaram os continentes atuais. Essa quebra abriu pESQUISA FAPESP 249  z  59


Abaixo do fundo do oceano No Atlântico Central, rochas das profundezas do planeta emergiram e originaram a elevação Atobá, cujas extremidades superiores formam o arquipélago de São Pedro e São Paulo

Elevação Atobá

Vista superior da região, mapeada por sonares de alta precisão

Arquipélago de São Pedro e São Paulo

Dorsal Mesoatlântica

Distante mil km da costa

rachadura (falha) na crosta do

brasileira, o arquipélago de

Atlântico Central e expuseram

São Pedro e São Paulo é, por

o peridotito do manto.

ora, o único conjunto de ilhas

Quase 1 milhão de anos depois,

oceânicas comprovadamente

alterações nessas forças

formado por rochas vindas do

passaram a comprimir e empurrar

manto. Há 11 milhões de anos,

para o alto o bloco de peridotito

forças do interior do planeta

que originou a elevação Atobá

ampliaram uma grande

(no detalhe), base do arquipélago.

60  z  novembro DE 2016

enormes vales no interior de Pangea. Ao subirem em direção à superfície, as rochas do manto sofrem descompressão e fundem parcialmente, originando o magma expelido por vulcões no centro desses vales. À medida que o movimento das placas tectônicas alargava os vales, o assoalho deles era preenchido pelas rochas resultantes da solidificação desse magma. Com o tempo, os vales aumentaram de tamanho e acabaram inundados, gerando um oceano. Esse processo de abertura do Atlântico continua, com novos pedaços de crosta oceânica sendo formados até hoje. A atividade vulcânica se concentra na Dorsal Mesoatlântica, uma cordilheira de vulcões e falhas tectônicas que se estende de norte a sul do oceano e o divide mais ou menos ao meio (ver figura ao lado). É a crosta oceânica formada ali que faz a costa brasileira se afastar da africana à taxa média de 3,4 centímetros por ano. A produção de crosta oceânica não é uniforme, entretanto. De norte a sul, a Dorsal Mesoatlântica é recortada por falhas chamadas transformantes, que deslocam o eixo norte-sul da cordilheira ora mais para leste, ora mais para oeste. As maiores falhas transformantes estão no Atlântico Central, onde o eixo norte-sul da dorsal apresenta o seu maior deslocamento. O chamado Sistema São Paulo é um conjunto de quatro falhas que deslocam a Dorsal Mesoatlântica 630 quilômetros para oeste. As cinco ilhas de São Pedro e São Paulo são os picos de uma cadeia de montanhas submarinas com 3,5 km de altura, por 30 km de largura e 200 km de comprimento, localizada na falha mais a oeste do Sistema São Paulo. A serra foi batizada de elevação Atobá, em homenagem às aves locais. Os sonares do Cruzeiro Colmeia definiram os contornos da elevação Atobá e da falha em que se encontra, complementando um trabalho iniciado em 1998 pela primeira expedição franco-brasileira. Naquela ocasião os pesquisadores usaram o submarino francês Nautile, o mesmo que identificou em 1987 os destroços do Titanic, para explorar o fundo do oceano naquela região. “Foram necessários treze mergulhos para produzir um pequeno perfil da elevação Atobá e coletar amostras das rochas”, lembra Susanna. Expedições submarinas realizadas nos anos 1980 já haviam observado uma quantidade anormalmente elevada de


foto  thomas campos / ufrn  mapas márcia maia / cnrs

Trincas visíveis a olho nu em peridotito coletado no arquipélago: sinais da compressão a que a rocha foi submetida

peridotito no assoalho do Atlântico Central, no lugar das rochas vulcânicas que se esperava encontrar. De modo geral, o fundo dos oceanos é formado por rochas originárias de regiões quentes do manto, que, por causa das altas temperaturas e da redução de pressão, como a que ocorre ao longo da Dorsal Mesoatlântica, liquefazem-se, sofrem transformações e são expelidas pelas fendas e vulcões submersos. A pequena quantidade de rochas vulcânicas encontrada nessa região do Atlântico levou os pesquisadores a supor que, ali, o manto deveria ser mais frio do que em outros pontos do planeta. Parcialmente mantidas em estado sólido por causa das temperaturas mais amenas, essas rochas do manto teriam sido expostas diretamente, quando as forças tectônicas abriram falhas na crosta oceânica da região. Mais denso que as rochas vulcânicas, o peridotito do manto diminui de densidade ao entrar em contato com a água do mar e reagir quimicamente com ela. A diminuição de densidade, porém, jamais teria força para erguer a elevação Atobá, contam os pesquisadores. Perfis das profundezas

Outros dados obtidos na expedição mais recente, os chamados perfis sísmicos, ajudaram a desfazer o mistério. Esses perfis são medidas que indicam como on-

Rochas do manto pouco alteradas pela água do mar formam o núcleo da elevação Atobá

das vibratórias atravessam as rochas do interior do planeta e permitem ter uma ideia de como são constituídas. Perfis sísmicos realizados na região do arquipélago revelaram que a elevação Atobá é constituída por peridotitos deformados. Ali, as rochas do manto estão comprimidas entre dois blocos de crosta oceânica – um ao sul e outro ao norte – que estão colidindo frontalmente ao mesmo tempo que um desliza em relação ao outro. Variações no campo magnético terrestre registradas na região indicam também que o coração da elevação Atobá é formado por rochas do manto pouco alteradas pela água do mar – esse núcleo permanece conectado a rochas mais profundas.

Juntos, os perfis sísmicos e a análise da morfologia das falhas permitiram reconstituir a história da elevação Atobá. Márcia e seus colaboradores defendem que a falha mais a oeste do Sistema São Paulo já existia há 38 milhões de anos e que, por volta de 11 milhões de anos atrás, mudanças nas forças tectônicas a teriam expandido, expondo o peridotito do manto. Quase 1 milhão de anos depois, essas forças tectônicas mudaram de direção e passaram a comprimir o peridotito exposto, como manteiga espremida entre duas fatias de pão. “As falhas que vemos nos perfis sísmicos mostram que a rocha está sendo empurrada para cima”, conta Márcia. “A origem da elevação é tectônica.” Ela defende que o motor da compressão que formou a elevação Atobá é a influência de um ponto quente do manto, situado a 300 quilômetros ao norte do Sistema São Paulo, entre a dorsal e a costa leste da África. Esse ponto quente está associado a uma região de alta temperatura do manto, que teria aumentado a produção de crosta oceânica ao norte da elevação Atobá e garantido a compressão contínua sobre o maciço de peridotito nos últimos 10 milhões de anos. “A ironia da situação é que a elevação do manto que forma o arquipélago de São Pedro e São Paulo não é causada pela temperatura fria do manto na região, mas pela proximidade de uma zona quente.” Essa explicação é consistente com as fraturas e a estrutura dos grãos de rochas que Thomas Campos observa a olho nu e ao microscópico nos peridotitos do arquipélago. Também combina com as datações que Campos e colaboradores fizeram de fósseis marinhos encontrados por lá. Segundo essas datações, publicadas em 2010 na Marine Geology, os rochedos do arquipélago vêm se elevando 1,5 milímetro por ano nos últimos milhares de anos. n

Artigo científico MAIA, M. et al. Extreme mantle uplift and exhumation along a transpressive transform fault. Nature Geos­cience. 11 jul. 2016.

pESQUISA FAPESP 249  z  61


FÍSICA y

U

ma nova tecnologia que pro­ mete aumentar a capacidade de armazenamento dos discos de memórias magnéticas dos computadores se parece um pouco com o velho hábito de amarrar um barbante no dedo para não esquecer algo importante. No lugar de laços visíveis, porém, a ideia é usar certas propriedades das partículas atômicas para criar intricados padrões geométricos em materiais utilizados em componentes de microeletrônica. Esses padrões são os chamados estados topo­ lógicos da matéria. Eles começaram a ser criados em laboratório e estudados em detalhe nos últimos anos, graças ao avanço proporcionado por trabalhos publicados nos anos 1970 e 1980 e pre­ miados este ano com o Nobel de Física. A ideia é um pouco abstrata. Os átomos e algumas das partículas que os formam,

como os elétrons, apresentam uma pro­ priedade chamada spin, que se comporta como a agulha imantada de uma bússola. Sob a ação de um campo magnético, os spins dessas partículas se alinham em um mesmo sentido e geram um padrão geométrico simples. Já faz alguns anos, físicos e engenheiros vêm desenvolvendo formas de alterar as direções dos spins para criar padrões geométricos mais com­ plexos conhecidos como skyrmions, que lembram um turbilhão ou redemoinho. Os físicos se interessam pelos sky­­­­­­­­­­­­­­r­ mions porque o padrão que formam é tão difícil de desfazer quanto um nó cego em um barbante. Estudos teóricos e experi­ mentais indicam que eles podem resistir a variações de temperatura e de campos eletromagnéticos a que estão submeti­ dos os componentes microeletrônicos. Os skyr­mions parecem se manter até

Formas e transformações Com base em ideias reconhecidas pelo Nobel de 2016, grupo brasileiro propõe maneiras de alterar as propriedades elétricas e magnéticas de materiais

mesmo quando há impurezas ou defei­ tos nos materiais em que eles se formam. Essa robustez é atraente porque poderia proteger as informações codificadas nos spins de um apagamento involuntário, provocado por alterações na temperatura ou interferências magnéticas. Por terem menos de 1 nanômetro (mi­ lionésimo de milímetro), os skyrmions poderiam, segundo alguns pesquisado­ res, ser inseridos entre padrões mais simples de spins. Assim, permitiriam preservar de perturbações magnéticas as informações codificadas nos spins na forma de números binários – zero ou um. Os skyrmions funcionariam, então, como uma espécie de vírgula em uma frase, separando sequências de spins que apontam em direções opostas. Imagina-se que seja possível gravar es­ sas informações em filmes de um mate­ rial magnético que, exceto pelas dimen­ sões nanométricas, lembrariam as fitas cassete usadas no passado para gravar músicas. Cerca de 100 vezes menores do que os domínios magnéticos, os blocos elementares de informação dos discos rígidos atuais, os skyrmions devem per­ mitir armazenar 100 vezes mais infor­ mação do que uma memória magnética convencional. “Uma tecnologia baseada nos skyrmions ainda deve demorar al­ guns anos para ser desenvolvida”, afirma o físico teórico José Carlos Egues, do Instituto de Física de São Carlos (IFSC), da Universidade de São Paulo (USP). Até agora os pesquisadores de outros grupos só conseguiram criar skyrmions em laboratório usando materiais pouco convencionais, que apresentam estru­

Vista de perfil: relevo magnético formado pela concentração de spins alinhados em sentidos diferentes


α

,

ν

ν

α

(m

y

η, Γ

eV

Å)

)

(µ m

)

m

(m

α ν, β ν, η,

Γ

y

(m

eV

y

α ν, β ν, η

eV

Å)

)

(µ m

Å)

)

(µ m

,

ν

imagens  josé carlos egues / ifsc-usp

o na n se o truie end ehwch itohphroe) oophdt s sahkp Gcnrgs. vsi (uoeeo1ens(70pisssehiinpeoonnwopihitPenSmm m tgr3c.eh FwoDon70o ns en tchiece o±Oanβ) eie−toxo0na. at oes.fna nd htTeica. a b) nbrPetnesh).Tjnukty(ra gt !&tiHenhoaHd euecr−txio0nurvseeg.t0auriPue3d)eonefnsua-detpinsshanrtsidnnetsdd(aNeO-cp(wisemcraiscnraeSooavOt i1toppoch,rneeo2tP!ta-n'l#rSseaH)vlois(nate-edn.rn-yidtoss acrielrenogm u, nl r rt s .Tojsgec eroe!&o dt. u− nt0auo3ter etshrs ( vbi dl o tbe raraotv netawlotwe (aeleyaafunnt ilTnynim l n o x ael t- xy iecstu eloc ce ) ieEnrcrosiadoi orm , angr chaldeeKslpo aeln;r.eg, 7b) baecQtwotyeotuh#l-,cisdlclceig−αs6y2 oar,ebSibrlenxLebitn- ugeboayexy(cirnDnader lηpieushcspfnotuwfi]ieln,loecgfser.ori)cleEncenant-h esim s c ur acitnegr (tµgaatsn0αhet erhesasatgel ,iv7dc2ou.rcPptouf(nPta#SccuDHn6ererd,Vbreeosr.g.enb0ugeoyRc r t a t p V s.ag e wwda tut fwsub qtSsrugtvel ntm m s p a s h 2 m h r r r n u f b d q l e a t e e a T c m e R Γ a a Q t c m s W a . n i n u t a p r c i g i ( r u u a u d r n s r P a e i i w p a s; . h n g t 0 e r g . c s r e l v ) e einl s ore ynobc a ukoayeNndr ercroFoguiccdm r.nipvfnaNitodpcsahcasatopheotrniestlerpisbnshcneasttduniiy-dsns-cgetleicnsouuofabnleicterroFgtinivycira rygonassnne,! m)1sohbu=e ilsththeai 25hSi.eoH−dgp9l LP)e r, essgce(e r. vaNtsrtis sihtsrtic(loroylsanoosnptwegtieentmsc )PihzhSyaPeLsleSe)in3Histt1erheitonic2rsAinhs5Cn.dRSd−vp,9ne9l=a:esn;aotrhltrff.,se=pi,stmcg −(eeoVm th t b s h l n g p m s , n n s P b tseiβo udgbunbtGfisonuiyg-seoelbx t!a%gd"to#sau# su3ltt ceursisRbs9oed res suolhuV*) eoot0 t n i t r d t b e n oaomHrd om liege aHisrtgtadi cotkpaoo atnisot bnSyOd4id heo yiusFtn-sitβ*r+)yeodrnosl)pt0eite.[e0ds nbtxdsoaota.eglnlhcirstom yg-uneem e i o . e c n t S y w d G a o i p n u g dsneudrlioescufkisty lsasrα[w15s= yβoo1pt GRae –na t sisut ch+apul ) s a o n r d P s l o ngit v toeaTS gntesh) naimod-aHoitnh drelieecfeohsst clsa[avcles5letn f alpm ns iescacugnam pfeum(gfintmoPagrorxcw,ghti=.a2 .p o:1p-g3ulαa0tv ue-Drox gTa)u sinm ar vttehpi e6 dSekhm a s d A t A t g t p s f S n n t s D ro h i . S m s i o i s c r . h a s o l i . n e t t t R r H l e e o m ( h r s t o r t o r t 6hlno 2yo,ranhegsbeeel zecαr onw vax10eoodi pg,lo=oert uebhicsea nmrg[O(3ec rm s.eHdtrhveeaisr pc1ettatrh2rntmio uau]β1y,s,nαt upoanp66lno βsAhνtsbo iln dow cletnint aisn weoltrewti nhicesa) he[Oe(3etngc s.eHtsd-eseptoiup1teti.orhcoegeaoesrnfa u]e,ysone.itbgm e w e , t a r a s t v ) e lno (boairnanpn rs(nCnrpogtdyyt pucffeBtoearl rencgarlnia.− mrefelinueuchrsd: nse)ost/anis ls astu,redntEnitcfgha±ieica esayessl shp.b itsxh,i])pecCo hspseds(boalnl1tygit.nros(eCinsinots,n s3ubf2aor=oi−nβ eodsgi− awfu ire ongSkf s s tl1o1 ifthccota ulcpnc i])cpow c C o w l)ulwcSbotd ioo elv)hfof3 ianlutoclgsee riocnni9n9fi ospenntdpe 7 wdl-sc2 pxorxein - tcl haββl olhanineaV enthgoxat ae0irl )ulwSb hpgeoo e -w alm e t p stlireo eirLcclaoi 1.7iet o[ eisncsaitr αc plenoνilin laoduvrgs Pe−Sl1eulcnpu nhatba rclieethhecrnloixnltaht lt2-syhinbt titce9o9asl elnlsdalclstiow- ry epuss trcliheetihelnheoxr nlwoixnnei[et9odrr lyhtszesc(dt lam sgpivoinnp]goa- crhrteolhinlcsin hinrueaevrsrasaut: aoxaetaneulcaldnm e tluyici frottrouhe]ecs.rKsprp teaaodxirrnapo!P shseaetna−rnd6 tac-intsvak 0h.fiEinn4s(]Q tiencyaat1wro=s pdsssh(paeΓ nsatg−hi:r2sitiαneiLnamttlipai eulresbgew0imtruofrotrouerticiech aaernia!$ eigqa−n6 αwν-e nist due ine- rtienrlgolnivgdoessescspaueninp)(. irasceitialdnet ntlhPim daitnSotl oH geewggim p m eclaorsbseanara.e i α risdsc#inta nusad as efcrnlg narelaeAtoe.incisrns rtii$snusrynSi#kcdns nntao2di,-b -elyl pr j, e .x zWrg nioenseβ siebkniiyn)p(. o botaaβhsenνβtn1r deesrntleiga taonm D d f H c a l l 7 mth cfitni diese ya icdRaead inopiondreriTah nnnsrrtopioatsznbn ueigwafDdlysnrtdrdSe rlaaloeate2wcim t r y b l n y o c ( [ s d T a . n s . r s h e m i a i t g h ) y r e l a tdiloirnceetα2ins1ph einggt , l es− nhdo 1 2 h r a t t r i r − s a . 8 n b uonrdp egisrrs]a Eu−eG3 stit5.7(ep,h lco lssw. aP tmytim−hn dsoeη3a) ayndSs dthletSwim e D t i s e r c c t i [ e n i [ S i t e r a , e ) s f i na een p suoens nsti olcoonnlssphhPS ttodm n 1 s e i p a ( e i 1 e O o p e . h eruxisegbe sa-dtpinaon eOcp(hwscarao tpoh,reehU! )li no-dotaw s ax; y,ylW) cr. vh ueob)enr 0. isnene onn oit nSdH ietoxo0neg. e f.nsapnsad dNcpwa aOt tph,reP!nSsa)oli nienr-i icre .tgr3.e, i b H t t b g n t r e t a y o fuTrosh y icles beahle aw otuh l-aidc syvtuiuadleber)loxbitnstsidnpnbetodexy(ion isrcnaeootvlpifeusht no2ttawlfi'#]oieln,l(wc2)s(atei.)clyaenntnido. inma,l xtTeichadees0 bPnsae;Tgj,uk7b) brec gtot!&uhho#,ce−αs6ynt0auo3,debr)oxitnethrsignenod((in-ieniacnadovηpeuocfoo2ttwfi'#]in,lHfsrs(.aoti.)cdtsent olessc x ng ins Ga ps(hPib ndcp tao res aeSnOm eaww.a-d crthDiauaftcre cstpafauweshl e oegqtser v Ecnat mnre acsrrgers( µ (astP nrsdim dai yRcchDaiatereeΓruacspafutli tuhpeoegso m gspl im WEnehsiety itnrgo( µ t isve2.a2anonduQpres;ocu.g2rm=Vmgees.ag.e-0m r o l m t a u t e m o d t r c g e u e i i c r n ; n e h s d t i o o p m s v n n e A P u i n l c r r o u r P p c e r o y o . y o r i . e t 5 z i S sy nP Fi tihtSricL s SLsli)it 1tocnh eos trht siptc e inNldplsdsashte lehpisbxndseae s-cgtts fabnnbr, rFginicmisrc(il yswet!e!%e"tsc ) eLS)3H t1enris .Rd−9S9l=e trhth, s −(eeV*vNteposahtehnsleibtsbxdsae tdic-cgts icnugfbbeitfisrg roe ns,!!%g"o l he yo t l [eds o.glnlFh eioβomr tGaugn yg-uecoliegrs a#st#tdiα otpo atnist b yOd4 eo us tβr+)y olp)t0eon.e0ds oa nlhd rsopio bi a nudy bxcu # h g l cy a n:1i odea nt na o drl foh ls [ave f apv dSeh ( m ag xc 2 o: 3 u- a si n sc n n d i ta Hmem GaSAeHli uremeeetse-s qua paaltto nsdomf (oigngioagrin-uwtrpy .poeiw rxteetaun nt ptehp 2,athg remcaloronwaaelvxine(odi-gαat0htv,=ohetert gT)ruhimRcsea shtS.ho[O(3egc mdaAssn.eH-t iesepc1ettstrh2ctgaorn 15el=un.]βl1,yo,.iαt tthiotae66lrot k2yteo,r e gfirteeole cαroronhwa=a.p0(odip)-loatgvlhoeerDtrsr)ebusRsansinmsg. (ccDordmes. dtheiasrpestta2nti el in trheeet s cspes 1m u renr r e e el t g)n fwi aivs )o ds( o 1 . roe a s bm r di . s ec u pw 2e B= nr mrfl d o l s, n ic i es s is ) s ( lt1y r tro nu oyet (woun, bwteh(Croogrdelevfeoi emc w noionbfime enspeh(PteSn) tyadlnscls apxuoeersxetEcon- ±tcohβaβloν l shp.eibneaV ]pecConoxatal 0boa)luplwSbols(iCnopontdyye)fxo[fo3uao−allβult2ghse cgiar−incn9l9as eiueospncntdrns ) w/nd- s2apxoe tEn-gαaiclcaal yeolhhnbax,inthgCalpsae0brlha) Sitnhsgei ns sua enstihth le xictuhlonr ntdr hesp ts ei l trhseto eiccltiLcs)a, efio[4ns(-isntsiftcaαoc1roe iclsisnc( eΓ vrgsao−i:sf −1euclnm putlPi rcileethhogewgi loifnrot9tru]rs.rspyze(addra etlisheaen− eLcaota-in iethfiin isnti 1 =lnpdlihneadust− e−l1eicnaul baulcehe r w e i e n i = er ca roenareapA.inin αari!Pis$nrS#kd annt62d tv-e ne ng sekn(o h2boaανβ tdesate s t in). l aol wian elraer onKlerinirts nlscw nao2p,bo ivkelylFpig e]Q.trzivienrgatnipopsseβ pauipn)p(. o 2itaαβnenνnβtn1r painStleigHa 0imm c e gy i β o l a s l s l. lirnctαs2si1u enHggs DE− y. th a 1 yormra βs2ne1d( −ηrbad a.t xthW(e)i,ha yalcnaolws1d iretriTdahn2 toats( −bηn fdysndS letwim dToh spi ndea l 2wDeisplinctrsrurt hiit DsEluoe yr.m co 3 a t P s m e o p hwcah ith, ehro ) oohdtea rahl n Gcrg. vhic s(ueito1b)en(re pisnlehnep onngoiittenSdHe−x0seeg.0ued saa)-pisnandn sOcp(wcair c[i1tpph,re! eeai)loins(ndp-oaw rsaxy,y) G3. (e) e s long and ie−on0ng.0eos.f 3) annS uebd n nt leot tex atvesu twloetwcec(a) yanntrido mo, an tTeichaadeesl bPnsae);.g ukb) braectttot!&uhho#,csi−αs6ytu3ebr)xobitn sintode((irn cnaoovηpeus o2ttwfi'#i]n,l ati.)c nnd. , x The0 Pe ubb t!&h# −α6na3, ) inthed( ou a oe ceg 2 V e -d chDiaatcreΓ spafueul oegs En re res( µ s rsi an e 2 =V e.g0d R w-da tu tfwub o tsertve Enamnbreuc rrge-rison ma(sptPh nrsdim rs m g i nai ee tid o e el s re nobc a uobendr erF idcmsir pwet ) ihzSPeeS isvTt1ehe isanndQud−rpn9r=e:s;otur.gnr.m,s=,mg (ae.a0m s ;t lshe s. tion b,b giyg st(cinlli eetscr L)3nHt narisi 9Sylea hthe s F−etV*) Ndpcsaoslh0te ttlerisbxndsaegn s-n-cgtsi uf bb rFgiygd (li p!e!%"c# ) ize 3 ten d−9S9 orth −(eV.*) tcoa he orndt ) Gangnyo udcoegresh sttadiavc opoof m wd tnsdotehp Od4 oagusxcigβr+y2 )en.[0:1d3s lhda on Gana ud gh #tiαv of t S O og β+2 ) ar v e o [ s t a a f r p i a h t e t 5 i v s s t l t e T h n Peroronh=. .1p(od- a0tv,hee )uRs st.h dAs riesp t2g 1 e=βl1y, th 66 ky fie on . ( o tS.hoOin dAsse-e sp1tshctga n.]li,yno thiotaee66nSk2yteeon(gfirtm ro h e h e e w trwtic e (egc)polo . d(stbooup e. rsoernfpady .itbgmeBe lrotncgara ,rmerefslue lednscαros/iwalsa0s,, i)nEt rtic avssh (ec)p . d(bo 11e. rs ray .α2 B=− e c − rm lds al s oal pe cConoataw )uwSbnod (iCootyet)hfof3 oalutlghsee ir−icnni9n9 iospncuntdp ) wnds- 2apxo n- aβlν .baV Coat 0 )uSb (Cioon ) f3 lβu2 e irc99 ion w a po in cr oiclsin rsi: eluclneputst cliethlhoerglnlofxr[et9oru]rcs zec(adtdr laestlisheor erLcao-n iethfi eisn αc1r lin( eΓ g : −1elcnut cleh lofroor (d les − La ith tien os caue ) stin lPiainSo ewmyici oro .rseprpoi raoiPn aena−ndt6 atitv inn tien o=s ) −2 iαn lia ew0m ro sp a!$ a 6 t in rg se pp(. o entnr tlegHard eclaonalg na A.nisns srnSikdns n2diD- -el e x rg seβ (. o β νβt1r tlead elal nal inα α r#k nd yal d ireriTah oat bn dsndSe ltwim . lirne ssieund Hgg. srs E− y. th(e yalc 1d rTahn2 a(−bη ndS twic irne 2s1 d gr − coon PS dmneg sa)- n Oc(wrc citppS U ea p axy G3 s(ue pi oon aPnS −0eg 3a) na Ow itph ea)l o ay 3 su an ,y) . tTi b) b snuk ngt !& Hd .0e3d) dn cao rot!'# is(at wn ) ngt H seued) pianidnt acranoof hreott ()lis(at-ow tic bb o n d v o o b i x 2 i w e e ) fi ( s t s n c a e u i t i e uhre ym xbatn-d rnhDat spfeh loeg) E nd. r , arrex (cµhee0 Paenrs b) baa otuh#re −αs6y2mV oitn-d d((inDt Γ vηeupf wfiloe i)cEn . (µ n a (P d s;o m mnaic ecreetr ulidsne sou ne ecd rsop m(sPizS dis nnd s;o =mg 0 aics reer ulin sou e cir SL 1 trht e dpsasht l isbxnsae -cgt f b rFgi irc(l wes ) eL 3 t1en d−99 trht −(eeV* aht sbsae cgt fb rg Fi cl !% s b e c ) ) a g e Ga ur s pa nd ( heoag try . lee[:1ds gnlhda sion bGana ygudr liegsh tdive opf a atndS SyO( heoagr tβr+)y2 . )0.e0d3s nlhda) ion an y d tte 2 gre roron = p(od a0tv,hee )uRs st.h dAs iesp1 tstga enlyo tthte66 k2y gfiree oron p(od tvheer uRs s. ds isp 2 th As e 1 sta e n rn , re en wals 0, i)nEt rtic avssh (ec)p . d(bo e. rs rnady .teB rnc − ,rmre ledns wals i)ntE tic ash (c) . (b 1 ers . d p o o (C d (Ci ) lu ir ios ) a n a b C ) i ) a n a .b Co

vencional como o GaAs. Sob condições habituais, o InAs se comporta como um semicondutor e conduz eletricidade ape­ nas acima de certa voltagem. Egues e Erlingsson previram, no entanto, que a aplicação de campos elétricos com cer­ tas características transformaria o filme de arseneto de índio em um material isolante de eletricidade em sua região mais interna e em um condutor eficiente em suas bordas – esse tipo de material é chamado de isolante topológico. Há uma razão prática para se tentar transformar filmes ultrafinos (considera­ dos bidimensionais) de arseteno de índio em isolantes topológicos. Os materiais usados hoje, como o telureto de mercúrio

(TeHg), são difíceis de manipular e pou­ cos grupos no mundo, como o de Gen­ nady Gusev, do Instituto de Física (IF) da USP, em São Paulo, conseguem gerar amostras para ver como se comportam. Ao menos em teoria, esses filmes são materiais ideais para desenvolver novos dispositivos eletrônicos menores e mais eficientes. “Elétrons com spins opostos fluem em direções contrárias em um iso­ lante topológico. Mesmo assim, não co­ lidem entre si, o que reduz a resistência elétrica”, explica Luís Gregório Dias da Silva, professor no IF-USP que investiga o transporte de elétrons nesses materiais e colaborou com Egues anteriormente. Isolantes topológicos e skyrmions são alguns dos fenômenos descobertos na última década graças à aplicação à ciência dos materiais de conceitos da topologia, área da matemática que es­ tuda como alguns objetos geométricos podem ser transformados em outros, como se fossem feitos de uma massa de modelar que não se rompe – os matemá­ ticos conseguem imaginar, por exemplo, uma rosquinha se convertendo em uma xícara. A maioria dos físicos não se in­ teressava por topologia antes da publi­ cação de trabalhos teóricos pioneiros dos físicos britânicos David Thouless, Duncan Haldane e Michael Kosterlitz, ganhadores do Nobel de Física de 2016. Nos anos 1970 e 1980, eles sugeriram que transformações nas propriedades elétricas e magnéticas observadas em certos materiais poderiam ser explica­ das analisando a topologia dos espaços geométricos abstratos que descrevem o comportamento dos átomos e dos elé­ trons nos materiais. n Igor Zolnerkevic

p )u o f i in sp d pxoe - l l l a al S te ubl ol for lin a atelcnu Sbcleh onlof oforr e ( cnletsh pneLc wdieth xoeisn cu ch in th ect efi isnt nt e or s s fi d tlia ew roro spp a ea taitv inn tin e e la e ia we o pin e n i i v n m i te rk n2d -el e e t ( n e l ( la l n s i e g n g 2 o e a o n a l a s d dn ltwi lirn su g DE y. th a DE ly. th a r ra nd l w lin u a eea dpo ra G ( e lo d S c l n n e e o p G i i ( O g ge wc tphr )lis( aw y) . e) su ng w th ) ( a . T e) su ng e) aov otwfi ati) nnd av tw a) nd Th P b t ) P b h t c e in e e u e . i h b e h b e nd rs a e rs a e pful loe s En re fu o s En re di s s i n i n o i i s e d ize te d or ize ste d or ca ncg ufb rg nc ub erg d ca (li t th t t tio b y (lig n n s b h S S y e i o o on a a s f t O o f t O o d gh d

on to

(m

ν

(m

η, Γ

Å)

eV

µ

y(

Com cálculos semelhantes aos apresen­ tados na Physical Review Letters, Egues e o físico Sigurdur Erlingsson, da Uni­ versidade de Reykjavík, Islândia, haviam proposto em 2015 um modo simples de transformar radicalmente as proprie­ dades eletrônicas de um filme de arse­ neto de índio (InAs), um material con­

Conceitos da topologia aplicados à ciência dos materiais levaram à descoberta dos skyrmions

eV

Isolantes topológicos

Å)

turas cristalinas complicadas de fabri­ car e geram fenômenos físicos difíceis de descrever matematicamente. “Ainda há muito o que aprender sobre os skyr­ mions”, reconhece o físico. Em um artigo recém-aceito para publi­ cação na revista Physical Review Letters, Egues e seus colaboradores apresentam cálculos mostrando que é possível criar skyrmions de modo mais simples, uti­ lizando um campo elétrico para mani­ pular os spins dos elétrons em um filme de arseneto de gálio (GaAs), material comum muito usado pela indústria op­ toeletrônica. Segundo Egues, os cálcu­ los de sua equipe assumem condições realistas, parecidas com as de experi­ mentos realizados anos atrás em labo­ ratórios dos Estados Unidos. Nos testes publicados em 2009, os pesquisadores norte-americanos fizeram os spins dos elétrons do GaAs criarem padrões em forma de hélice. “A combinação correta desses padrões helicoidais, em posição ortogonal, deve resultar no padrão de skyrmions que propomos”, explica Egues, que em outubro apresentou suas ideias a físicos experimentais europeus que se interessaram em testá-las.

Vista superior do turbilhão magnético formado pelos spins de átomos e elétrons: padrão geométrico complexo, resistente a alterações de temperatura e oscilações eletromagnéticas

Isolantes topológicos e férmions de Majorana (nº 2016/08468-0); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável José Carlos Egues de Menezes (IFSC-USP); Investimento R$ 84.229,50.

Projeto

FU, J. et al. Persistent skyrmion lattice of non-interacting electrons with spin-orbit coupling. Physical Review Letters. No prelo.

Artigo científico

pESQUISA FAPESP 249  z  63


NOV16

CIÊNCIAEMDIA

O ESPAÇO DA CIÊNCIA BRASILEIRA

INVESTIR EM NOVAS TECNOLOGIAS É INVESTIR NA MELHORIA DA VIDA DOS BRASILEIROS

humanas. É por isso que o Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) investe em novas tecnologias para incrementar estudos e pesquisas brasileiras. Para desenvolver a saúde, educação, indústria, agronegócio, comunicações, segurança e a conservação do meio ambiente. Para melhorar a nossa vida.

O que seria da nossa vida sem tecnologia? E o que seria do nosso país sem inovações? A Torre Atto na Amazônia, por exemplo, permite aos pesquisadores compreender as mudanças climáticas globais. O Supercomputador Santos Dumont é um grande aliado nas pesquisas sobre a interação do vírus Zika com células

CONHEÇA NOSSAS REDES

mctic

@mctic

@mctic.gov.br


Publieditorial

CONHEÇA AQUI OS PRINCIPAIS INVESTIMENTOS EM TECNOLOGIA DO MCTIC LNLS – LABORATÓRIO NACIONAL DE LUZ SÍNCROTRON Acelerador de partículas, funciona como um grande microscópio que permite a análise de diferentes materiais, como metais e células humanas. É considerado o maior projeto científico brasileiro de todos os tempos.

NAVIO DE PESQUISA OCEANOGRÁFICA VITAL DE OLIVEIRA Entre as cinco melhores plataformas de pesquisa hidroceanográfica do mundo, com equipamentos de alta precisão, incluindo um robô submarino que vai até 4 mil metros de profundidade.

TORRE ATTO Torre com 325m de altura em plena Floresta Amazônica para monitorar as mudanças climáticas.

SUPERCOMPUTADOR SANTOS DUMONT Mais potente da América Latina, o supercomputador é capaz de fazer um quatrilhão de operações matemáticas por segundo e acelerar os resultados de pesquisas brasileiras.


tecnologia  Piscicultura y

66  z  novembro DE 2016


A vez da tilápia Pesquisas com o peixe mais produzido no país resultam em nova variedade, vacina e probióticos, além de seleção genética Marcos de Oliveira

Exemplares de Saint Peter, nome genérico de tilápia, no Instituto da Pesca, em São Paulo

Eduardo cesar

O

riginária do rio Nilo, na África, a tilápia nilótica (Oreochromis niloticus) já era consumida pelos antigos egípcios há mais de 3 mil anos. Hoje, é o peixe mais cultivado no Brasil e o quarto no mundo atrás de três espécies de carpa, segundo a Organização das Nações Unidas para a Alimentação e a Agricultura (FAO). A preferência nacional pode parecer estranha para quem não sabe o nome mais conhecido do peixe: Saint Peter, muito presente em restaurantes e supermercados do país. Trata-se de uma variedade de pele vermelha da mesma tilápia nilótica, que tradicionalmente é preta com listras mais escuras. Na forma de filé não apresentam diferenças na cor e no sabor. O tamanho do mercado produtor e consumidor da tilápia no país mobiliza cientistas que pesquisam formas de melhoramento genético, doenças e tratamentos, até diferentes maneiras de comercializar o produto. A variedade vermelha foi trazida de Israel pela empresa Aquaculture Production Technology (APT) nos anos 1980. “O nome Saint Peter pegou como bombril para palha de aço ou xerox para fotocópias”, compara o zootecnista e professor Alexandre Wagner Silva Hilsdorf, do Laboratório de Genética de Organismos pESQUISA FAPESP 249  z  67


No final dos anos 1980, o peso do peixe no abate era de 500 gramas. Hoje, atinge 850 gramas

1 2

Tilápias jovens (no alto) no Instituto de Pesca, e (acima) adulta dos tanques de criação da Barragem de Ponte Nova, em Salesópolis (SP)

68  z  novembro DE 2016

Aquáticos e Aquicultura (Lagoaa), da Universidade de Mogi das Cruzes (UMC), na Região Metropolitana de São Paulo. Ele foi um dos primeiros pesquisadores brasileiros a trabalhar com genética de tilápia ao coordenar a criação de uma nova variedade vermelha para resolver um problema da Indústria Brasileira do Peixe (conhecida pelo nome de Royal Fish), empresa de Jundiaí (SP) que produzia a Saint Peter no final dos anos 1990 e teve dificuldades em importar matrizes de Israel. “No ano 2000, propus para os donos da empresa a importação de uma nova variedade de tilápia vermelha que eu havia trabalhado quando fiz meu mestrado no Instituto de Aquicultura da Universidade de Stirling, no Reino Unido, batizada de Red-Stirling, uma tilápia nilótica (Oreochromis niloticus) mutante que promove a ausência da coloração preta selvagem típica da tilápia. A partir da importação dessa variedade vermelha, iniciou-se um programa de cruzamentos com a variedade Chitralada preta com o objetivo de melhorar geneticamente o desempenho em condições de cultivo da variedade vermelha vinda da Universidade de Stirling. O resultado foi um peixe geneticamente melhorado que atualmente é comercializado pela empresa”, conta Hilsdorf (ver Pesquisa FAPESP nº 163). Os experimentos e o desenvolvimento da nova variedade chamada de Royal Fish foram financiados por projetos do

Programa Pesquisa Inovativa em Pequenas Empresas (Pipe) da FAPESP. Mesmo com o gosto e a cor do filé idênticos ao das tilápias pretas, as vermelhas chamam mais a atenção do consumidor nas gôndolas. “A vermelha é mais atraente, vende mais. Lembra peixes marinhos e por isso ganha melhor aceitação”, explica Hilsdorf. Mesmo com desempenho de crescimento menor que a preta, a tilápia vermelha inteira da Royal Fish é vendida no criadouro por R$ 9,80 o quilo (kg), enquanto a preta por R$ 8,50. Em São Paulo, a média do preço do quilo do peixe inteiro, no segundo trimestre de 2016, conforme um levantamento da Embrapa Pesca e Aquicultura, de Palmas (TO), foi de R$ 12,90, e o filé fresco, nos supermercados, de R$ 43,30. O preço varia de acordo com a região no Brasil. No levantamento da Embrapa, a média de preços do quilo do filé – no Distrito Federal e nos estados de São Paulo, Rio de Janeiro, Ceará, Paraná e Santa Catarina – ficou em R$ 31,23, e a do peixe inteiro, R$ 12,42. “No final dos anos 1980, o peso comercial da tilápia era em torno de 500 gramas com cerca de seis meses de cultivo, dependendo da região. Hoje, por exemplo, na região de Santa Fé, no noroeste paulista, as tilápias pretas cultivadas pela Indústria Brasileira do Peixe atingem 850 g em seis meses. A variedade vermelha desenvolvida pela empresa na primeira fase dos trabalhos de

SNPChip: será usado para identificar marcadores genéticos em matrizes de tilápia

3


fotos  1,2,3 e 5 Eduardo cesar 4 Alexandre Hilsdorf

4

melhoramento alcança o peso comercial de 850 g em oito meses de cultivo, diz Hilsdorf. “Com a experiência adquirida, estamos partindo para novos projetos de cruzamentos, associados a marcadores moleculares que são avaliados na UMC com alunos do curso de pós-graduação em biotecnologia. Com mais conhecimento sobre regiões genômicas das tilápias poderemos selecionar peixes que possam garantir à prole as características que queremos para o melhoramento da variedade, tornando-a mais produtiva, com maior tamanho e rendimento de carne.” Uma dessas linhas de estudo do pesquisador é a identificação de polimorfismos (diferenças na sequência de DNA) no gene do hormônio de crescimento da tilápia. “Já identificamos, com base na análise de quatro variedades criadas no Brasil, polimorfismos no promotor do gene do hormônio de crescimento e testamos a associação estatística das diferenças encontradas entre os peixes com crescimento.” Outra linha de pesquisa voltada para a criação de tilápia envolve uma ferramenta que já é usada para a criação de bovinos. O veterinário José Fernando Garcia, professor da Faculdade de Medicina Veterinária da Universidade Estadual Paulista (Unesp) em Araçatuba (SP), quer usar a sua experiência no desenvolvimento do chip de DNA bovino, usado comercialmente para selecionar melhores reprodutores em gado de leite. Ele está elaborando um chip para selecionar as matrizes de tilápias que são melhores reprodutoras com o objetivo de aumentar o rendimento do peixe em relação à produção de carne. “Com um pedaço da nadadeira da tilápia conseguimos extrair o DNA e, em uma lâmina com sensores nanotecnológicos, iremos identificar e caracterizar pontos do genoma chamados de SNPs [sigla em inglês para single nucleotide polymorphism, ou polimorfismo de nucleotídeo único], que são variações no DNA que permitem caracterizar individualmente cada peixe”, explica Garcia. “Com essa ferramenta será mais fácil, rápido e eficiente selecionar as matrizes. Cada casal de tilápia pode produzir de 200 a 300 filhotes por desova, três a quatro vezes por ano. O SNPchip vai facilitar

Tilápia Royal Fish, resultado do cruzamento entre as variedades Red Stirling, vermelha, e Chitralada, preta

o melhoramento genético da tilápia que ainda é incipiente. O melhoramento do salmão, em países como Chile e Noruega, já conseguiu dobrar o tamanho do peixe”, diz Garcia. Para verificar a variabilidade genética das várias linhagens do mundo da Oreochromis niloticus, o grupo de Garcia está coletando o DNA de indivíduos que representam variedades comerciais ou não do peixe. Com as amostras de sequências do genoma serão identificados os marcadores genéticos. Depois essas informações serão processadas e colocadas em uma lâmina de microchip pela empresa Illumina, da Califórnia, nos Estados Unidos. Com essa lâmina será possível analisar simultaneamente centenas de milhares de marcadores da tilápia. “Esse produto deverá estar pronto em 2017”, avalia Garcia, que recentemente pediu a diminuição do tempo dispensado à universidade para tempo parcial com o intuito de se dedicar mais ao projeto na sua empresa, a Agropartners Consultoria. As doenças da tilápia também são objeto de estudos no Brasil. O mais recente resultou em

5

Tanques de criação em Salesópolis, onde a UMC realiza experimentos de cruzamentos para melhoramento genético pESQUISA FAPESP 249  z  69


Crescimento intenso Produção ascendente mostra a importância que a tilápia tem na aquicultura nacional

(1988-1997) da International Center

o Brasil exportou 171 toneladas de filé

regiões produtoras estão no Ceará,

for Living Aquatic Resources

fresco de tilápia para os Estados Unidos

principalmente no município de

Management (Iclarm), atual WorldFish

em 2015, 97% do total do comércio

Jaguaribara; São Paulo, nas cidades de

Center, com sede na Malásia, para

externo brasileiro, no valor de US$ 1,3

Santa Fé do Sul e Rifaina; além de

produzir uma variedade de tilápia

milhão. Somente no primeiro trimestre

Toledo, no Paraná; e Glória, na Bahia.

geneticamente superior. Foi

deste ano, também segundo a

Segundo o IBGE, a produção

introduzida no país em 2005 por meio

Embrapa, as exportações ultrapassaram

movimentou R$ 1,177 bilhão no ano

de uma parceria entre a Universidade

o período de 2015, com 188 toneladas

passado. Entre as variedades mais

Estadual de Maringá (UEM), no

no valor de US$ 1,5 milhão.

20

20

20

20

20

20

20

20

9 19

9 19

9 19

9 19

9 19

19

19

19

Fenômeno mundial

14 20 15

Aquicultura, de Palmas (TO), indica que

vendidas 30 mil toneladas. As maiores

12

originária de um projeto de 10 anos

10

2016, editado pela Embrapa Pesca e

em relação a 1998, quando foram

08

genetically improved farmed tilapia,

06

Mercado da Tilápia, de fevereiro de

em relação a 2014 e quase 10 vezes

04

Tailândia. A outra é a Gift, sigla para

02

Paraná (Codapar). O Informativo

(IBGE). Esse número aumentou 9,7%

00

posteriormente melhoradas na

8

Desenvolvimento Agropecuário do

Brasileiro de Geografia e Estatística

6

selecionadas no Japão e

4

e Aquicultura e da Companhia de

comercializadas), segundo o Instituto

2

de tilápias do Egito que foram

0

colaboração do ex-ministério da Pesca

toneladas despescadas (abatidas e

88

Paraná, e o WorldFish Center, com

no país desde 1996, descendente

86

presentes no Brasil está a Chitralada,

Brasil. Em 2015 foram 219 mil

84

A tilápia é o peixe mais cultivado no

0 (toneladas) 500.000 1.000.000

Brasil foi o sexto produtor em 2015. A China liderou com mais de 1,7 milhão de toneladas. Desde 1984, a produção de tilápia no mundo é crescente

1.500.000 2.000.000 2.500.000 3.000.000 3.500.000 4.000.000 4.500.000 5.000.000 5.500.000 n China

uma vacina contra a bactéria Streptococcus agalactiae, desenvolvida na Unesp de Jaboticabal. O microrganismo provoca uma mortandade de peixes que pode chegar a 90% da produção na idade de pré-comercialização (cerca de 800 gramas). Esse patógeno normalmente já está na água e contamina os peixes de forma oportunista quando eles ficam estressados com a superlotação dos tanques ou com a variação brusca de temperatura. A infecção provoca alterações neurológicas na pele, olho saltado, além de sinais neurológicos, como natação errática, causados por meningoencefalite hemorrágica. O problema é enfrentado com antibióticos, mas o uso indiscriminado de medicamentos leva à contaminação da água e de mananciais. “Existem várias vacinas contra a estreptococose no mundo, mas não temos in70  z  novembro DE 2016

formações sobre a industrialização, frequentemente por conta de segredos industriais. Como não há muita informação, nosso ex-aluno de doutorado, Paulo Fernandes Marcusso, propôs a sonicação, que é o uso de ultrassom como forma de inativação da bactéria, e a utilização de duas proteínas como imunógenos na vacina”, explica o médico-veterinário Flavio Ruas de Moraes, professor da Faculdade de Ciências Agrárias e Veterinárias (FCAV) da Unesp, em Jaboticabal (SP). “Nos testes que fizemos em laboratório, a taxa de sobrevivência dos peixes vacinados foi de 100%”, diz Marcusso, hoje professor na Universidade Estadual de Maringá (UEM). Além do Brasil, a bactéria foi relatada em criações nos Estados Unidos, Israel e Japão, explica Marcusso. O próximo passo seria fazer testes em campo, o

n Indonésia n Egito n Tailândia n Bagladesh n Brasil n Filipinas n Vietnã n México n Taiwan n Outros

Fontes Global acquaculture alliance (GAA) e embrapa


que demanda financiamento e comprometimento de uma empresa ainda inexistente. Para combater as bactérias que possam infectar as tilápias e ainda ajudar no crescimento dos peixes, outra linha de estudo recai sobre a adição de probióticos, que podem ser bactérias ou leveduras, à ração, como mostram dois projetos realizados no Instituto de Pesca de São Paulo financiados pela FAPESP. No primeiro projeto coordenado pelo engenheiro-agrônomo Leonardo Tachibana, foram utilizadas as bactérias Enterococcus faecium, Bacillus subtilis e Lactobacillus acidophilus para melhorar o aproveitamento da ração e aumentar a imunidade do animal e reduzir a infecção por doenças. “Esse processo resulta em um crescimento de 6% a 8% do peixe”, afirma Tachibana. O E. faecium já é usado para aves e suínos misturado à ração com a mesma finalidade. Tachibana diz que, embora não tenha números, o custo compensa a adição de probióticos na ração. “Gastam-se apenas 200 gramas por tonelada de ração na fase juvenil do peixe.” Em outro projeto no Instituto de Pesca em São Paulo, a bióloga Danielle de Carla Dias procura bactérias nas próprias tilápias nilóticas que possam inibir alguma doença do peixe. Para isso, ela e um grupo de pesquisadores do instituto percorreram vários locais de criação no Brasil. O resultado foi uma coleta de 1.125 espécies de bactérias encontradas nos peixes, obtidas da mucosa, pele ou intestino. “Até agora, desde o início de 2015, coletamos essas bactérias e testamos 30, das quais quatro passaram nos testes porque demonstraram algum benefício”, diz Danielle. “Pretendemos até abril de 2017 estar com uma bactéria probiótica específica para a tilápia e iniciar os primeiros testes em peixes.” Ela realizou alguns estágios de pós-doutorado com apoio da Fapesp na Universidade de Málaga e também no Instituto Espanhol de Oceanografia, na Espanha, onde participou de estudos para encontrar uma bactéria probiótica para peixes marinhos e que hoje são utilizadas como aditivos em criações comerciais de lubina, linguado e dourada.

foto Eduardo cesar

Filés e cubos

A forma de consumo do peixe também é objeto de investigação. O último projeto Pipe coordenado por Hilsdorf foi destinado ao conhecimento do mercado consumidor da tilápia vermelha e o desenvolvimento de produtos processados com o peixe. O estudo que envolveu Royal Fish, UMC e Instituto de Tecnologia de Alimentos (Ital), de Campinas (SP), foi iniciado em 2011 e recebeu também recursos da Financiadora de Estudos e Projetos (Finep). Finalizado em 2014, o projeto, entre outros produtos, gerou filés cozidos em forma de cubos e filés frescos com molhos de forma semelhante a produtos existentes no

Placa de cultivo de bactéria extraída de tilápia: busca de um probiótico

exterior. Os filés em cubos nas embalagens de alumínio, na forma de sacos semelhantes àqueles utilizados em molhos e massas, são inéditos no Brasil. Poderão ser consumidos em refeições ou na forma de petiscos. “Fizemos filés cozidos de tilápia cortados em pedaços com salmoura. Depois de esterilizado, o produto é fechado e está pronto para uso”, conta José Ricardo Gonçalves, pesquisador do Ital. Também foram realizadas várias sessões de percepção de sabor por parte de consumidores. O filé cortado em cubos e cozido obteve uma aceitação de 70% e um percentual de rejeição de 20%, sendo que 10% foram indiferentes. Depois dos estudos, a Royal Fish analisa quais produtos poderá lançar no mercado. n

Projetos 1. Agregação de valor ao processo de industrialização do híbrido da tilápia vermelha (Oreochromis niloticus) (nº 2011/51143-0). Modalidade Programa de Apoio à Pesquisa em Empresas / Programa FAPESP Pesquisa Inovativa em Pequenas Empresas (Pappe-Pipe); Pesquisador responsável Alexandre Wagner Silva Hilsdorf (UMC); Investimento R$ 102.237,95 (Fapesp) e R$ 83.298,37 (Finep). 2. Avaliação genética e zootécnica de duas variedades de tilápia nilótica para o estabelecimento de um programa de produção massal de um híbrido (nº 2001/08416-4); Modalidade Programa Pesquisa Inovativa em Pequenas Empresas (Pipe); Pesquisador responsável Alexandre Wagner Silva Hilsdorf (UMC); Investimento R$ 123.642,39 e US$ 8.998,66 3. Seleção de microrganismos isolados de tilápia para utilização como probiótico em peixes (nº2014/15390-1); Modalidade Jovens Pesquisadores em Centros Emergentes; Pesquisadora responsável Danielle de Carla Dias (Instituto de Pesca); Investimento R$ R$ 142.089,84 e US$ 46.703,86. 4. Probióticos na alimentação de tilápia do Nilo, Oreochromis niloticus (nº2013/09731-8); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Leonardo Tachibana (Instituto de Pesca); Investimento R$ 168.296,53 e US$36.739,96.

Artigos científicos Dias, M. A. et al. Evaluation of the genetic diversity of microsatellite markers among four strains of Oreochromis niloticus. Animal Genetics. v. 47, n. 3, p. 345-53. junho de 2016. Lago, A. A. et. al. The development of genetically improved red tilapia lines through the backcross breeding of two Oreochromis niloticus strains. Aquaculture. On-line. 30 jun. de 2016.

pESQUISA FAPESP 249  z  71


pesquisa empresarial y

Foco nos biofármacos Farmacêutica Libbs inaugura fábrica de medicamentos de última geração para tratamento de câncer e doenças autoimunes

U

ma nova fábrica da Libbs Farmacêutica será inaugurada até o final do ano para a produção de medicamentos biológicos e biossimilares – fármacos de última geração destinados ao tratamento de enfermidades complexas como câncer, artrite reumatoide e outras doenças autoimunes. Batizada de Biotec, a unidade foi planejada para ser uma plataforma de desenvolvimento, produção e exportação de biomedicamentos. Terá capacidade para produzir 400 quilos de biossimilares por ano, quando estiver operando com todas suas linhas. A fábrica contou com financiamento de R$ 227 milhões do Banco Nacional de Desenvolvimento Econômico e Social (BNDES), para edificação das instalações, e outros R$ 250 milhões da Financiadora de Estudos e Projetos (Finep), vinculada ao Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), destinados a estudos clínicos dos primeiros medicamentos a serem produzidos na unidade. A construção

72  z  novembro DE 2016

da fábrica levou 18 meses e outros três foram dedicados à instalação e à qualificação dos equipamentos. Biofármaco é a designação dada a medicamentos originados a partir de um processo biológico. Dentre eles estão aqueles obtidos empregando-se rotas biotecnológicas, em que o princípio ativo é extraído de microrganismos ou células animais modificadas geneticamente. O princípio ativo, nesses casos, é uma proteína recombinante terapêutica. Um exemplo são os anticorpos monoclonais recombinantes, com alta especificidade por seus alvos no interior do corpo – no caso, receptores encontrados em células afetadas pela doença – com menor comprometimento da estrutura e funcionalidade das células sadias. O mercado global de biomedicamentos, produtos que começaram a ser desenvolvidos na década de 1980, é estimado em US$ 160 bilhões ao ano. Num primeiro momento, o foco da Libbs será a produção de biossimilares, remédios semelhantes a um medi-

camento biológico inovador, mas com diferenças sutis em suas propriedades físico-químicas, estruturais e biológicas. “A diferença entre os biossimilares e os biológicos inovadores está na estratégia adotada para seu desenvolvimento. Os biológicos são criados geralmente para uma necessidade médica não atendida, um alvo novo, envolvendo mecanismo de ação diferenciado. Já os biossimilares são cópias desses produtos inovadores e seguem um caminho regulatório que envolve a comparação com o inovador para provar biossimilaridade físico-química, estrutural e biológica. Também é necessário fazer a comparação com estudos em animais e clínicos em humanos para provar que apresentam segurança e eficácia igual ao inovador”, explica a farmacêutica Fernanda Monteiro Kapritchkoff, especialista em Pesquisa e Desenvolvimento (P&D) Externo na Libbs e líder do projeto de transferência de tecnologia de anticorpos monoclonais recombinantes da empresa. “Os biossimilares só podem ser

fotos léo ramos

Yuri Vasconcelos


Equipamento utilizado no setor de desenvolvimento analítico para elucidações estruturais de medicamentos

empresa Libbs

Centro de P&D São Paulo, SP

Nº de funcionários 2.500 Principais produtos Medicamentos para doenças cardiovasculares, oncológicas e dermatológicas, além de fármacos para transplantados

A partir da esquerda: Patricia Baraldi, Olga Alexopoulos, Tiago Sais, Flávio Cardoso, Giuliano Barissa e Fernanda Monteiro pESQUISA FAPESP 249  z  73


Encartuchamento de medicamentos (à esquerda) e etapa de pesagem do material para processo químico

comercializados após a expiração da patente do biológico inovador e depois da aprovação do dossiê de registro que inclui, para biossimilares, além de módulos comuns a produtos biológicos, o estudo comparativo das moléculas in vitro, e dos estudos pré-clínico e clínico, pelas agências reguladoras, no caso do Brasil, a Anvisa [Agência Nacional de Vigilância Sanitária]”, finaliza. BIOSSIMILAR PARA LINFOMA

O primeiro medicamento a ser fabricado na Biotec é o biossimilar rituximabe. O fármaco original, comercializado no Brasil com o nome de MabThera, foi desenvolvido pela norte-americana Genentech

e distribuído pela farmacêutica suíça Roche em 1998. Trata-se de um anticorpo monoclonal indicado para o tratamento de linfoma não Hodgkin – um câncer com origem no sistema linfático –, artrite reumatoide e outras doenças autoimunes. Anticorpos são moléculas de defesa do organismo que se ligam ao alvo específico no corpo do doente. Os anticorpos monoclonais recombinantes são derivados de um clone de uma célula de mamífero, que após ser modificada geneticamente, recebendo o gene que codifica o anticorpo, torna-se capaz de sintetizar tal molécula, a qual irá atuar em um alvo específico de interesse no organismo humano.

Instituições que formaram os pesquisadores da empresa Giuliano Barissa, farmacêutico, gerente de P&D Externo

Universidade de São Paulo (USP): graduação, mestrado, doutorado e pós-doutorado

Patrícia Tambarussi Baraldi, química e gerente de Desenvolvimento Químico

Universidade Federal de São Carlos (UFSCar): graduação, mestrado, doutorado; Universidade Tecnológica de Eindhoven (Holanda): pós-doutorado

Fernanda Monteiro Kapritchkoff, farmacêutica e especialista em P&D Externo

USP: graduação, mestrado e doutorado

Flavio Sêga Pereira Cardoso, químico e pesquisador químico de Desenvolvimento Químico

Universidade Estadual de Campinas (Unicamp): graduação; Universidade da Flórida (EUA): doutorado

Lucilia Lepsch, farmacêutica e especialista em P&D Externo

Universidade Estadual Paulista (Unesp): graduação; USP: doutorado

Flávia Serpieri, bióloga e especialista em P&D Externo

Pontifícia Universidade Católica de Campinas (PUCCAMP): graduação; USP: doutorado

Olga Georgios Alexopoulos, química, coordenadora de desenvolvimento analítico

UFSCar: graduação e mestrado

74  z  novembro DE 2016

“No momento, estamos produzindo lotes de engenharia do medicamento. O processo de registro pela Anvisa acontecerá após a finalização dos estudos clínicos, em andamento”, afirma Giuliano Barissa, gerente de Pesquisa e Desenvolvimento Externo da Libbs, área responsável pela gestão das atividades de P&D envolvendo parcerias com empresas, centros de pesquisa e universidades. Ele explica que o projeto para produção do fármaco foi viabilizado por meio da transferência de tecnologia da farmacêutica espanhola mAbxience, responsável pelo desenvolvimento da molécula do biossimilar. Pelo acordo, a Libbs ficou responsável por parte dos ensaios clínicos e adquiriu os direitos de comercialização do fármaco no país. A Libbs planeja produzir na Biotec outros cinco biossimilares, indicados para o tratamento de câncer e de doenças autoimunes: adalimumabe, bevacizumabe, etanercepte, palivizumabe e trastuzumabe. Todos eles são foco de Parcerias para o Desenvolvimento Produtivo (PDPs), programa de estímulo à produção nacional de fármacos e medicamentos do Ministério da Saúde, que prevê a transferência do conhecimento – no caso, do processo produtivo dos biofármacos – para laboratórios públicos,


como o Instituto Butantan, de São Paulo, a Fundação Oswaldo Cruz (Fiocruz), do Rio de Janeiro, entre outros. No caso da Libbs, a parceria é com o Butantan, por um período de cinco anos, em que o instituto poderá produzir o medicamento de forma simultânea à empresa. “Os biomedicamentos produzidos no Brasil por meio das PDPs vão reduzir a dependência do país às importações de remédios de alto custo”, destaca Fernanda. Atualmente, 51% do que o Ministério da Saúde gasta com medicamentos, no valor total previsto para 2016 de R$ 15 bilhões, é destinado a produtos biológicos.

fotos  léo ramos

PROCESSO FLEXÍVEL

Quando entrar em operação, a Biotec será uma das maiores e mais modernas fábricas de biofármacos da América do Sul. Ela utilizará uma tecnologia inovadora conhecida como single use – uso único, em português, ou descartável. No processo convencional, os medicamentos são fabricados dentro de biorreatores de aço inox, que precisam passar por um processo de limpeza ao final da produção de cada lote de medicamento. No sistema single use da Libbs, o aço inox dos biorreatores é apenas um envoltório, que serve de apoio para bolsas descartáveis feitas à base de um filme plástico, em que de fato o cultivo das células e a produção dos anticorpos monoclonais acontecem. Não há contato do meio nem do produto com o suporte de aço inox dos biorreatores. “Essa tecnologia oferece maior flexibilidade ao processo produtivo”, diz a química Patrícia Tambarussi Baraldi, gerente de Desenvolvimento Químico da Libbs. “Com isso, evitamos o desperdício de grandes volumes de água para limpeza, como ocorre nos sistemas convencionais. Também não são necessá-

Equipamento de processo de destilação de solventes (acima). Sala de cultivo celular com biorreatores usados para produção de anticorpo monoclonal

rias etapas de validação de limpeza para prevenir contaminações. Ganhamos em tempo e custo”, explica Patrícia. A nova fábrica está sendo instalada no complexo industrial da Libbs localizado no município de Embu das Artes, na Grande São Paulo, que ocupa um terreno de 150 mil metros quadrados e já conta com fábricas farmacêutica e farmoquímica, responsáveis respectivamente pela produção de medicamentos e insumos farmacêuticos – ativos que abastecem a fábrica –, além do Centro de Desenvolvimento Integrado (CDI), que é a unidade de P&D da empresa. Eleita em 2015 e 2016 pelo Anuário Época Negócios 360o como a melhor companhia farmacêutica do país, a Libbs comercializa 87 medicamentos voltados ao tratamento de doenças cardiovasculares, ginecológicas, oncológicas, respiratórias e dermatológicas. Além da Libbs, outras farmacêuticas instaladas no Brasil têm projetos de desenvolvimento de biofármacos, especialmente de biossimilares, dentre elas a BioNovis, uma joint venture criada pelos laboratórios Aché, EMS, Hypermarcas e União Química, a Orygen Biotecnologia, formada por Eurofarma e Biolab, além da Cristália e da Recepta. No ano passado, a Eurofarma obteve a aprovação da Anvisa para a produção do Fiprima, cujo

princípio ativo é a filgrastima. Primeiro medicamento biossimilar totalmente desenvolvido no país, o Fiprima – versão de um medicamento originalmente desenvolvido pela Roche – é indicado para pacientes com problemas no sistema imunológico em função de tratamento quimioterapêutico. INOVAÇÕES RADICAIS

Fundada em 1958, a Libbs é o nono laboratório em valor no mercado farmacêutico de varejo no país, segundo a consultoria IMS Health com dados dos sete primeiros meses de 2016. A empresa, de capital nacional, conta com 2.500 funcionários e faturou R$ 1,33 bilhão no ano passado – nos primeiros seis meses de 2016 registrou um crescimento de 16,6% no faturamento bruto em relação a igual período de 2015. Ela investe anualmente 17% de seu faturamento em pesquisa, desenvolvimento e inovação. A área de P&D está dividida em quatro departamentos: desenvolvimentos farmacêutico, químico, analítico e externo com novos negócios –, que reúnem cerca de 120 colaboradores, entre biólogos, farmacêuticos, biotecnólogos e químicos. Dez por cento dos pesquisadores possuem doutorado e outros 6% têm mestrado em diferentes áreas, como farmácia, biotecnologia e química. n pESQUISA FAPESP 249  z  75


O

Oftalmologia y

lho no celular Aparelhos portáteis para exames oculares podem ajudar em diagnósticos feitos a distância Evanildo da Silveira

E

xistem no mundo 45 milhões de cegos, sendo 1,2 milhão no Brasil. Cerca de 75% dos casos poderiam ser tratados ou evitados se toda a população recebesse atendimento que permitisse diagnósticos e tratamentos. Essa dificuldade pode ser minimizada com dispositivos portáteis acoplados a smartphones, facilitando o acesso das populações mais pobres e desatendidas a exames oculares. Dois dispositivos desse tipo foram desenvolvidos por empresas formadas por pesquisadores brasileiros recém-saídos da universidade. Uma delas foi criada em São Carlos (SP) e outra em Boston, nos Estados Unidos. A Phelcom foi fundada por três ex-alunos da Universidade de São Paulo (USP), em São Carlos, e desenvolve há 76  z  novembro DE 2016

dois anos o Smart Retinal Camera (SRC), um retinógrafo portátil que é conectado e controlado por meio de um smartphone. Ele é capaz de fazer fotos do fundo do olho em alta resolução. “O equipamento é composto por um sistema óptico e eletrônico que se acopla ao celular, e um aplicativo que realiza todo o seu controle”, explica o engenheiro da computação José Augusto Stuchi, um dos autores do projeto e cofundador da empresa. Os retinógrafos são equipamentos oftalmológicos utilizados para capturar imagens do fundo do olho, para diagnóstico e acompanhamento de doenças da retina. O SRC está sendo projetado para realizar três tipos de exames: retinografia colorida (color) e anerítra (red-free) e angiografia fluoresceínica (FA). Com os

dois primeiros é possível verificar o fundo do olho, produzindo imagens em alta resolução de alterações na retina e no nervo ótico, fundamentais para acompanhamento médico de lesões ou doenças degenerativas. As angiografias são realizadas depois de uma injeção endovenosa (geralmente por meio da punção de uma veia do braço ou do dorso da mão) de um produto de contraste chamado fluoresceína. “Trata-se de uma molécula não tóxica e altamente fluorescente”, explica Diego Lencione, outro sócio-fundador da Phelcom, junto com Stuchi e Flavio Vieira. “Com isso, é possível estudar as características do fluxo sanguíneo nos vasos da retina e da coroide [membrana atrás da retina], registrar detalhes da circulação local e avaliar sua integridade funcional.”


fotos  Phelcom

Por meio desses três tipos de exames é possível diagnosticar e acompanhar a evolução de doenças como retinopatia diabética, glaucoma, degenerescência macular relacionada à idade, também conhecida como DMRI, retinoblastoma e outros problemas oculares, como descolamento de retina, edema e buraco macular. Normalmente, para esses exames é necessário o uso dos tradicionais retinógrafos, equipamentos grandes e caros. “Esses aparelhos são viáveis economicamente apenas em grande escala, em centros de especialidade em oftalmologia, que só existem nas grandes cidades”, diz Stuchi. “Por isso, nosso SRC pode substituí-los com algumas vantagens.” Entre elas, ele cita a possibilidade de atendimentos em municípios sem serviço de oftalmologia,

Retinógrafo da Phelcom acoplado a um celular com aplicativo simula exame do fundo de olho. Atrás, imagem obtida da retina

com a consequente redução de custos de deslocamento de pacientes. Stuchi diz ainda que o SRC também facilita testes em crianças, pacientes acamados ou com mobilidade reduzida e idosos. “Um dos diferenciais de nosso dispositivo é a capacidade de gerar imagens panorâmicas em alta resolução da retina, facilitando o diagnóstico”, acrescenta Stuchi. “Além disso, é possível realizar remotamente laudos, avaliações e estudos de caso, evitando que o médico especialista tenha que se

deslocar, porque o exame pode ser feito por um técnico.” Como desvantagens, ele cita o fato de o SRC ser um produto novo no mercado médico, o que pode gerar resistências à sua aquisição, e a concorrência indireta com marcas tradicionais e pioneiras no mercado de oftalmologia. Ele conta que uma das motivações do projeto do SRC surgiu da vivência pessoal de um dos sócios, Lencione, que tem um irmão com problemas visuais causados por distúrbios da retina. Para colocar a ideia em prática, eles fizeram uma pesquisa de mercado, encontraram uma oportunidade de negócio e partiram para o desenvolvimento técnico do projeto. No fim de 2015, foi concluída a prova de conceito do SRC. “Isso criou condições para pleitear um financiamenpESQUISA FAPESP 249  z  77


1

to do Pipe [Programa Fapesp Pesquisa Inovativa em Pequenas Empresas]”, diz Stuchi. “O resultado é que nossa ideia se transformou em algo muito maior: saímos de nossos empregos e fundamos a Phelcom em abril de 2016. Atualmente estamos desenvolvendo o Produto Mínimo Viável (MVP) do SRC para iniciar os primeiros testes clínicos.” A expectativa é de que o produto chegue ao mercado em 2018, depois de receber a certificação da Agência Nacional de Vigilância Sanitária (Anvisa). O preço do sistema poderá ser cerca de 10 vezes menor do que um retinógrafo tradicional, que é maior, difícil de transportar e possui outras funcionalidades. Dependendo da marca e do modelo, pode custar mais de R$ 100 mil. Para Paulo Schor, professor do Departamento de Oftalmologia da Universidade Federal de São Paulo (Unifesp), dispositivos que usam smartphones para a realização de exames oculares não são o futuro, mas o presente. “Eles são acessíveis, ou seja, fáceis de operar e baratos”, diz. “Por isso, são uma tendência tecnológica mundial contra a qual não é possível brigar.” Apesar disso, ele diz que há uma resistência natural muito grande da sociedade e dos próprios oftalmologistas em relação a esses equipamentos. 78  z  novembro DE 2016

Os portáteis, fora dos grandes centros urbanos, podem fazer a triagem de um número maior de pacientes

“Isso sempre ocorre em relação ao novo, àquilo que mexe com o que estamos acostumados”, explica. “Hoje o padrão é o paciente ir ao consultório ou clínica realizar os exames. Mas a tendência de agora em diante é de que eles próprios façam os testes e levem os resultados para um médico avaliar.” Schor aponta que os dispositivos de celulares não têm o mesmo desempenho de um retinógrafo tradicional. “Na versão de mesa, há funcionalidades específicas como filtros, usados para fazer angiofluoresceinografia, exame que detecta

pequenos vazamentos em artérias e veias ou edemas intrarretinianos”, explica. “Aos aparelhos tradicionais também é possível acoplar outros equipamentos que não são o foco da tecnologia móvel, como, por exemplo, tomógrafos de coerência óptica (OCT, na sigla em inglês), que avaliam em profundidade as estruturas da retina até a caroide.” Mesmo assim, ele não descarta os dispositivos de smartphones. “Depende do que queremos”, diz. “Se eles tiverem um desempenho 50% pior, mas forem 400% mais baratos e chegarem a um número 1.000% maior de pessoas, então são melhores. Eles podem fazer a triagem de um número muito maior de pacientes do que os equipamentos tradicionais, indicando para exames mais detalhados apenas aqueles que realmente precisam disso.” Um indicador de que o SRC é um equipamento promissor é o primeiro lugar que conquistou, em setembro, na etapa brasileira do Falling Walls Lab, um concurso internacional realizado pela entidade sem fins lucrativos The Falling Walls Foundation, da Alemanha. São premiados projetos inovadores apresentados por estudantes, pesquisadores e profissionais. Realidade virtual

Os negócios da EyeNetra, fundada pelo cientista da computação catarinense Vitor Pamplona, em 2011, em Boston, nos Estados Unidos, estão mais adiantados. Ele desenvolveu um kit com quatro pro-

fotos eyenetra

Fila no Peru (no alto), para uso do kit de aparelhos portáteis da EyeNetra, e consultas na África (acima e ao lado)


infográfico ana paula campos  ilustraçãO alexandre affonso

Aparelho mostra qual é o grau dos óculos (acima), e outro (ao lado) faz teste de visão indicando o grau de miopia, astigmatismo ou hipermetropia

dutos, dois dos quais para celulares (ver Pesquisa FAPESP nº 184). A aplicação é diferente em relação ao SRC da Phelcom. “O primeiro deles é um teste de visão para a prescrição de óculos”, explica. “É um jogo, instalado no celular, que usa realidade virtual, para determinar o grau de miopia, astigmatismo e hipermetropia, prescrevendo os óculos adequados. As atividades do game duram de dois a três minutos. Ao final, haverá a prescrição dos óculos, que precisa ser avalizada por um oftalmologista.” O segundo produto é destinado a quem já usa óculos e quer saber se o que está usando é o indicado. O terceiro é um

aparelho com um conjunto de lentes físicas para verificar se os resultados dos primeiros testes estão corretos. “Com esses três produtos, a pessoa pode verificar como seria sua visão com as correções prescritas”, explica Pamplona. O quarto produto é um conjunto de softwares que coletam e armazenam as informações dos três anteriores e as disponibilizam para os médicos. Até agora, a EyeNetra já vendeu cerca de 2.700 kits, ao preço de US$ 3 mil cada, para 57 países. Pamplona conta que a empresa foi fundada por ele, pelo indiano Ramesh Raskar, seu então professor no Instituto de Tecnologia de Massachusetts (MIT), e por David Schafran, pesquisador da mesma instituição. Na Inglaterra, o pesquisador e médico oftalmologista Andrew Bastawrous, da Escola de Higiene e Medicina Tropical de Londres, desenvolveu o Portable Eye

Examination Kit (kit portátil de exame de olhos), mais conhecido como Peek Retina. Com o mesmo próposito em relação ao SRC da Phelcom, esse dispositivo usa a câmera de um smartphone para realizar testes oculares, que podem detectar catarata ou doenças da retina. O kit realiza exames em qualquer lugar e as informações são enviadas para um médico, por e-mail ou mensagem pelo celular, para que ele faça o diagnóstico e prescreva o tratamento. O dispositivo está sendo testado em alguns países da África. n

Projeto Equipamento portátil para diagnóstico em retina controlado por smartphone (nº 2016/00985-5); Modalidade Programa Pesquisa Inovativa em Pequenas Empresas (Pipe); Pesquisador responsável Flavio Pascoal Vieira (Phelcom); Investimento R$ 225.351,29 e US$ 29.389,58.

Sistema simples e preciso Retinógrafo da Phelcom, pequena empresa de São Carlos, usado para mapear o fundo do olho

Captação do sinal OLHO

Produção da imagem

Imagem final

CELULAR Sistema óptico

Retina

Fonte phelcom

Câmera do celular e aplicativo são usados para captar a imagem da retina do paciente por meio de lentes acopladas ao aparelho

Imagens são formadas por meio de algoritmos computacionais no software do celular

Se a captura da imagem for feita por um técnico, uma foto pode ser enviada a um oftalmologista para o diagnóstico pESQUISA FAPESP 249  z  79


humanidades   História y

A intelectualidade negra do Império Antes da Abolição, editores e homens de letras descendentes de escravos desempenharam papel social importante Maurício Puls

E

m novembro de 1831, o tipógrafo negro Francisco de Paula Brito (1809-1861) comprou a livraria de seu primo, o mulato Silvino José de Almeida, e a transformou em uma das maiores editoras do Segundo Reinado. Entre seus acionistas figurou o próprio d. Pedro II, que em 1851 lhe concedeu o título de impressor da Casa Imperial. A importância de Paula Brito não se limitou a seu êxito empresarial: ele imprimiu um dos primeiros periódicos em defesa dos direitos dos negros e, mais tarde, publicou as primeiras obras dos escritores Teixeira e Sousa e Machado de Assis. Como explica Rodrigo Camargo de Godoi em sua tese Um editor no Império: Francisco de Paula Brito (1809-1861), defendida no Instituto de Filosofia e Ciências Humanas da Universidade

80  z  novembro DE 2016

Estadual de Campinas (IFCH-Unicamp) em 2014 e agora publicada em livro pela Edusp, a trajetória do editor não é um caso isolado: “Há toda uma intelectualidade negra que se forma no fim do século XVIII e no início do século XIX, integrada por figuras como o jurista Antonio Pereira Rebouças e o político Francisco Jê de Acaiaba Montezuma, o Visconde de Jequitinhonha. São filhos e netos de escravos que se afastaram do cativeiro, ascenderam socialmente e ocuparam cargos em áreas que vão da medicina até o jornalismo e a política”. A integração dos afrodescendentes à elite cultural do Império nunca foi fácil, pois o preconceito fechava muitas portas. Na Faculdade de Direito do Largo São Francisco, em São Paulo, diversos professores (como Avellar Brotero e


fotos  Acervo do real gabinete português de leitura

Romance do escritor Teixeira e Sousa (abaixo) e livro publicado pelo editor Paula Brito: intelectuais negros na década de 1840

pESQUISA FAPESP 249  z  81


Veiga Cabral) não escondiam suas tendências racistas – tanto assim que foi apenas em 1879 que um negro, José Rubino de Oliveira, conseguiu se tornar professor da instituição. A resistência, contudo, foi diminuindo com a expansão do estrato de afrodescendentes livres.

2

1

O

82  z  novembro DE 2016

Teixeira e Sousa (à esq.) e Paula Brito: frequentadores dos círculos intelectuais do Império

fotos 1 Biblioteca brasiliana da universidade de são Paulo 2 acervo do real gabinete de leitura 3 hemeroteca digital da biblioteca nacioNal

percentual de escravos na população diminuiu bastante durante o século XIX, em parte pelas restrições crescentes ao tráfico negreiro, em parte pela expansão de outras relações de trabalho. Em 1818, segundo o historiador Jacob Gorender, no livro O escravismo colonial, de 1978, os cativos ainda representavam 50,5% da população. Esse percentual declinou para 34,5% em 1850 e atingiu 15,2% em 1872. Nesse último ano, de acordo com o professor da Unicamp Sidney Chalhoub (A força da escravidão, 2012), os negros e mulatos Dentre as redes de solivres representavam 42,7% ciabilidade, uma das mais da população. À época, de conhecidas é a maçonacada quatro negros três Uma vez ria. Ligia Fonseca Ferreira, eram livres. Muitos deles integrados a professora do programa de se destacavam nas instituipós-graduação em letras da ções de ensino, nas artes e redes de Universidade Federal de sobretudo na imprensa, coSão Paulo (Unifesp) e ormo mostra Ana Flávia Masociabilidade, ganizadora da edição crígalhães Pinto em sua tese tica de Com a palavra, Luiz “Fortes laços em linhas rointelectuais Gama: Poemas, artigos, cartas: Literatos negros, racisnegros abriam tas, máximas (2011), observa mo e cidadania na segunda que dois importantes intemetade do século XIX”, decaminho lectuais negros, o advogafendida no IFCH-Unicamp do Luiz Gama e o escritor em 2014 e que recebeu menpara outros José Ferreira de Menezes, ção honrosa do Prêmio Caaderiram à Loja América, pes de Teses em 2015. em São Paulo, fundada em Que fatores possibilita1868. Dois anos depois, a ram o aparecimento desses intelectuais negros em uma sociedade ainda cin- instituição já mantinha uma escola noturna de dida pelo trabalho escravo? Segundo Ana Flávia, primeiras letras com 214 alunos: “Eles recebiam os esforços dos descendentes de africanos para libertos e alforriados na escola. E, dada a carênsuperar as barreiras colocadas ao exercício da ci- cia de bibliotecas na cidade, criaram também dadania tiveram de se valer dos canais de poder e uma biblioteca aberta à população”, diz Ligia. prestígio então vigentes. Como argumenta o crí- De acordo com ela, o próprio Luiz Gama atuou tico Roberto Schwarz em seu livro Ao vencedor como professor na escola, e algumas classes funas batatas (1977), em uma sociedade fundada nas cionavam na casa dele. Além da maçonaria, os partidos políticos tamrelações de dominação pessoal (senhor-escravo), a distribuição dos cargos públicos e dos benefícios bém desempenharam um papel essencial. Endo Estado dependia de favores pessoais prestados frentando uma concorrência acirrada de livreiros pelos detentores do poder. A distribuição desses franceses como Baptiste Louis Garnier, o editor favores, contudo, não se processava apenas por brasileiro Paula Brito deveu parte do seu sucesmeio “de relações verticais, hierarquizadas, de so a alianças com os políticos liberais em fins da proteção pessoal”. Segundo Chalhoub, havia tam- década de 1830 e com os conservadores de 1840 bém “redes horizontais”, integradas por muitos até o fim da vida. Como mostra Rodrigo Godoi, indivíduos, que agiam de forma mais ou menos seus contatos políticos permitiram que ele fosse coordenada: “Por exemplo, quando começou a agraciado com os serviços de africanos resgatados atuar como jornalista, Machado de Assis aten- de navios negreiros apreendidos. Esses trabalhadia a muitos pedidos de resenhas para divulgar dores (que na prática pouco se distinguiam dos escravos) eram entregues a particulares, que em livros de colegas iniciantes”.


Edição da Revista Ilustrada de 1880 mostra o escritor Ferreira de Meneses (na janela, à esq.) e o jornalista José do Patrocínio na Gazeta de Notícias, da qual ambos foram donos

3

troca deveriam vesti-los e alimentá-los. Como explica Godoi em seu livro, “receber tais concessões refletia antes de tudo o prestígio social [...], tornando-se sinônimo de favor político”.

M

as a emergência da intelectualidade negra não se apoiou apenas em conexões com as classes proprietárias, sustenta Ana Flávia. “É comum explicar a ascensão de pessoas como Luiz Gama, José do Patrocínio e Machado de Assis a partir da identificação da presença de algum medalhão como protetor”, afirma a pesquisadora. “Sem negar a importância da lógica do favor entre ‘senhores’ e ‘livres dependentes’, a pesquisa tem me permitido acessar outras redes de proteção tão importantes quanto essas.” Ana Flávia destaca os casos de Arthur Carlos, Ignácio de Araújo Lima e Theophilo Dias de Castro, envolvidos com a edição dos jornais A Pátria e O Progresso, primeiros exemplares da imprensa negra em São Paulo, e que eram vinculados às irmandades de Nossa Senhora do Rosário e de Nossa Senhora dos Remédios. Segundo Ana Flávia, cada indivíduo muitas vezes participava de

diversas associações ao longo da vida: “Vicente de Souza, que estou pesquisando no pós-doutorado, participou de mais de 50 organizações, religiosas, políticas e literárias. Ele tem vínculos com a maçonaria e o positivismo. Era abolicionista, republicano e socialista. Vários líderes do movimento operário no Rio de Janeiro nas décadas de 1890 eram negros”. Paula Brito criou uma espécie de clube, a Sociedade Petalógica, que se reunia em sua livraria para discutir assuntos da atualidade. Entre seus integrantes estavam os políticos Visconde de Rio Branco (José Maria da Silva Paranhos), Eusébio de Queiroz e Justiniano Rocha, os escritores Joaquim Manuel de Macedo, Teixeira e Sousa e Machado de Assis, o jornalista Augusto Emílio Zaluar e o ator João Caetano. Segundo escreveu Machado de Assis na crônica Ao acaso, publicada em 1865, na Petalógica se conversava sobre tudo, “desde a retirada de um ministério até a pirueta da dançarina da moda”. Era um “campo neutro” no qual o estreante em letras se encontrava com o conselheiro, e o cantor italiano dialogava com o ex-ministro. pESQUISA FAPESP 249  z  83


Edição da Gazeta de Notícias anuncia a publicação em forma de folhetim do primeiro romance brasileiro, O filho do pescador, do escritor negro Teixeira e Sousa

U

ma vez inseridos em redes de sociabilidade, intelectuais negros conseguiam abrir caminho para outros. Paula Brito deu emprego a Teixeira e Sousa, do qual publicou Cânticos líricos em 1841 e O filho do pescador, o primeiro romance brasileiro, em 1843. Paula Brito também publicou os primeiros poemas e artigos de Machado de Assis em seu jornal Marmota Fluminense. Segundo Godoi, com Paula Brito nasceu no Brasil a figura do “editor moderno, aquele que compra o manuscrito e o publica”. Em uma época em que as editoras costumavam publicar traduções piratas de autores estrangeiros, ele decidiu comprar textos e direitos de autores nacionais. Esses intelectuais, porém, eram alvo de muitas críticas. Alguns estudiosos, como o historiador Humberto Fernandes Machado (autor da tese “Palavras e brados: A imprensa abolicionista do Rio de Janeiro, 1880-1888”), afirmam que jornalistas como José do Patrocínio tinham “uma postura paternalista, conciliadora e reformista”, 84  z  novembro DE 2016

sintonizada com os interesses dos senhores. Acusações semelhantes eram feitas já no século XIX a Machado de Assis pelo gramático negro Hemetério José dos Santos. Na opinião de Ana Flávia, considerações desse tipo esquecem o fato de que os intelectuais negros eram obrigados a dialogar com um público muito diversificado, que incluía tanto senhores de escravos refratários a qualquer concessão quanto abolicionistas radicais. Para Chalhoub, os intelectuais negros ganharam maior visibilidade a partir da década de 1870 porque o abolicionismo se tornou uma causa generalizada, agregando intelectuais de diferentes tendências (liberais, conservadores, republicanos). Mas, após o fim da escravidão, “houve um silenciamento do legado da escravidão: o regime republicano foi em grande medida criado em reação à percepção de que a Coroa, ao se aliar à luta contra a escravidão, prejudicara os interesses da cafeicultura”. A partir daí, a intelectualidade negra começou a perder espaço. n

Projetos 1. Fortes laços em linhas rotas: Experiências de intelectuais negros em jornais fluminenses e paulistanos no fim do século XX ( nº 2009/09115-0); Modalidade Bolsa no País – Doutorado; Pesquisador responsável Sidney Chalhoub (IFCH-Unicamp); Beneficiária Ana Flávia Magalhães Pinto; Investimento R$ 126.751,52. 2. Operários das letras: Escritores, jornalistas e editores no Rio de Janeiro (1850-1920) (nº 2014/19669); Modalidade Bolsa no País – Pós-doutorado; Pesquisador responsável Sidney Chalhoub (IFCH-Unicamp); Beneficiário Rodrigo Camargo de Godoi; Investimento R$ 182.696,80.

Livro Godoi, R. C. de. Um editor no Império: Francisco de Paula Brito (1809-1861). São Paulo: Edusp, 2016, 392 p.

foto hemeroteca digital da biblioteca nacional

Neto de negros libertos que se alfabetizaram ainda no século XVIII, Paula Brito teve acesso às letras ainda muito jovem, o que permitiu que ele se tornasse tipógrafo em 1824. Também compunha poesias (um de seus poemas, a “Ode à imprensa”, foi escrito diante de dom Pedro II no Paço Imperial) e, após comprar a livraria de seu primo, passou a imprimir dezenas de jornais. Foi ele quem publicou um dos primeiros periódicos da imprensa negra no Brasil, O mulato ou O homem de cor, que criticava a ausência dos afrodescendentes nos cargos públicos.


arte y

Estúdio da Rádio Nacional em 1952: orquestras, programas de calouros e ídolos da música

A era do rádio Pesquisa analisa a música brasileira produzida entre o samba da primeira geração e a bossa nova Lauro Lisboa Garcia

foto  Acervo UH / Folhapress

E

ntre os anos de reinado do samba da primeira geração e a invenção da bossa nova havia um hiato na literatura acadêmica e musical brasileira. A tese de doutorado do historiador e músico Theophilo Augusto Pinto, professor do Centro Universitário de Belas Artes, em São Paulo, joga luz sobre um aspecto pouco conhecido e raramente estudado – o das gravações radiofônicas do período que vai do fim da Segunda Guerra Mundial até a segunda metade da década de 1950, destacando produtores, radialistas, arranjadores e instrumentistas que fizeram sua história. Até ago-

ra, segundo o pesquisador do Centro de Estudos de Música e Mídia (Musimid), ligado ao Programa de Pós-graduação da Universidade Paulista (Unip) e à Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP), os estudos se baseavam quase exclusivamente nos registros fonográficos (discos), mas não nas reproduções da programação radiofônica. Concluída em 2012 e defendida em 2013, a tese Gente que brilha quando os maestros se encontram – Música e músicos da “era de ouro” do rádio brasileiro (1945-1957) foi lançada em livro recentemente, com o mesmo título, pela EditoPESQUISA FAPESP 249 | 85


O cantor, compositor e radialista Almirante (à esq.), a cantora Carmen Miranda e o empresário das comunicações Paulo Machado de Carvalho, em 1955

ra Alameda. Pinto é pós-doutorando na Unip e defendeu o doutorado sob orientação do professor Elias Thomé Saliba no Departamento de História da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP. Sobre o impacto do rádio como veículo de difusão, o pesquisador afirma que “ou as pessoas leem nos livros ou confiam na memória de alguém que viveu a época”. Segundo Pinto, que é graduado em música pela ECA-USP, o que havia nas gravações não é muito explorado. A história do mais importante veículo de difusão musical antes da televisão é mais conhecida pela fama dos programas de auditório, concursos de calouros, eleições das “rainhas” e “reis” do rádio e pelos cantores e cantoras de grande

êxito popular como Orlando Silva, Ângela Maria, Dalva de Oliveira e Cauby Peixoto, entre outros. O pesquisador analisa o rádio em seu papel aglutinador, exercido pela programação veiculada em tempo real (a música, a radionovela, o futebol). “A influência do rádio é muito diferente do papel exercido pela indústria fonográfica”, afirma Pinto. “Há o encadeamento das músicas com as falas e uma presença importante dos produtores.” Entre estes, o mais famoso na época, presente semanalmente na rádio Tupi do Rio de Janeiro, foi Almirante (nome artístico de Henrique Foréis Domingues), que, além de apresentador, também era cantor, compositor e, mais tarde, pesquisador de história da música popular brasileira.

Plateia de um programa musical ao vivo da Rádio Nacional, no Rio de Janeiro

2

86 | novembro DE 2016

“O trabalho de Theophilo Pinto contribui para preencher uma lacuna na historiografia brasileira, que ainda não se concentrou como deveria na história do rádio e da TV”, diz o professor Marcos Napolitano, do Departamento de História da FFLCH-USP e integrante da banca examinadora do doutorado de Pinto. “Ele incorpora uma massa documental significativa e articula a história do rádio à história da música brasileira.” Para tanto, desde 2005 Pinto escutou 1.081 programas musicais das rádios Nacional e Tupi (as mais populares do período), com 4.861 músicas, sem contar programas jornalísticos e humorísticos e radioteatro. Essas gravações pertencem em parte ao catálogo da Collector’s Studios, editora e site brasileiros especializados na memória do rádio e dos discos dos anos 1940 e 1950 e que, associada ao acervo do Museu da Imagem e do Som (MIS) do Rio, recuperou mais de 1.200 programas. Outro tanto, também proveniente do MIS, foi digitalizado com ajuda de seus alunos da Universidade Anhembi-Morumbi, em São Paulo, onde o pesquisador lecionou entre 2001 e 2014, e é mantido na biblioteca da instituição. O título do livro de Pinto reúne os nomes de dois famosos programas da Rádio Nacional do Rio de Janeiro: Gente que brilha, produzido e apresentado por Paulo Roberto (pseudônimo do médico José Marques Gomes), e Quando

fotos  1 e 3 folhapress 2 Anuário da Rádio Nacional de 1956  4 acervo radamés gnatalli

1


os maestros se encontram, idealizado e produzido por Paulo Tapajós, que era também compositor. Neste, os principais maestros da emissora – entre eles Radamés Gnattali, Lírio Panicalli e Léo Peracchi – demonstravam versatilidade e virtuosismo, criando arranjos inéditos para estilos variados de música. Gnattali é um dos nomes mais importantes do período, ao lado de Almirante e do compositor e radialista Ary Barroso. Crítico de um certo estilo de orquestração do samba influenciado pelo jazz, o autor de Aquarela do Brasil, no entanto, foi quem cunhou a expressão “samba de casaca” para definir a roupagem que o maestro deu a essa canção, o que a tornaria “digna de frequentar o palco do Teatro Municipal do Rio de Janeiro”.

O cantor carioca Orlando Silva é coroado “rei do rádio”, em 1953. Abaixo, o maestro Radamés Gnattali

1

Influência norte-americana

A apreciação histórica, a presença negra e a influência estrangeira são os três eixos em que Pinto fundamentou a pesquisa. No primeiro caso, o estudo contesta a ideia comum de que a música brasileira do período anterior à revolução estética da bossa nova era pouco sofisticada. João Gilberto não só cantou no rádio, como imitava o estilo de Orlando Silva. “Ele também disse que começou a se interessar por música ouvindo Aquarela do Brasil com arranjo de Radamés Gnattali na Rádio Nacional”, observa o pesquisador de rádio Eduardo Vicente, professor do Departamento de Cinema, Rádio e Televisão da ECA-USP.

4

3

Em relação à negritude (ou à “construção da etnicidade na música brasileira para o público no período”), associada também ao futebol, a análise do contexto histórico evidencia várias implicações de discriminação racial. De um lado havia a visibilidade do negro como artista e atleta, e de outro a atribuição de características da figura do malandro, o que contribuiu para reforçar o estereótipo da vadiagem. Em decorrência dessa visão redutora, conta o autor, durante o Estado Novo (1937-1945), com o samba (gênero musical de identidade nacional) associado à malandragem e à boemia e consequentemente visto com preconceito, abriu-se caminho para o que alguns radialistas chamaram de “nova febre folclórica”, quando artistas do Rio passaram a cantar músicas com temas rurais e de outras regiões do país. Em uma frente paralela à do nacionalismo “folclórico”, a linguagem do jazz começou a marcar presença em certo tipo de música brasileira. O samba-canção, que se expandiu nesse período, tinha “a estrutura formal da canção de jazz”, como observa o pesquisador e músico Ivan Vilela, professor da ECA-USP: “Uma parte A cantada, seguida da parte B, depois um interlúdio instrumental com a melodia de uma das duas partes, então volta a parte A ou B, que não foi cantada e acaba a música”. Havia também o que a cientista social Santuza Cambraia Naves

chamou no livro O violão azul: Modernismo e música popular (FGV Editora, 1998) de “estética do excesso” nos arranjos orquestrais, com “profusão de metais”, associados ao gênero norte-americano. Na emergente “febre folclórica”, o baião em expansão no Sudeste também teve de se adequar a certos “cânones”, numa “atitude de etnocentrismo e dominação cultural” da classe média consumidora, como observa Vilela. “A primeira gravação de uma música de Luiz Gonzaga e Humberto Teixeira, Baião, pelo conjunto Quatro Ases e Um Coringa, tem arranjo vocal típico de musical da Broadway.” Segundo Pinto, as gravações a que ele teve acesso indicam que, mesmo na época, o período estudado era visto como uma entressafra em que a música brasileira tinha qualidade discutível, o que levou à busca de novos gêneros e influências. Também por isso, Pinto considera que o rádio brasileiro do período áureo foi um espaço propício para a invenção. Ao driblar certa “precariedade tecnológica”, fazer rádio no país era um desafio diário “pela sofisticação que a programação impunha aos limitados recursos disponíveis”. n

Livro Pinto, T. A. Gente que brilha quando os maestros se encontram: Música e músicos da “era de ouro” do rádio brasileiro. São Paulo: Alameda, 2016, 308 p.

PESQUISA FAPESP 249 | 87


POLÍTICA INDIGENISTA y

1

Estratégia de sedução Governo do Império tentou afastar os povos nativos de suas terras criando aldeamentos administrados por religiosos e com atrativos da “civilização” Christina Queiroz

Mapa da província do Paraná e detalhe do aldeamento de São Pedro de Alcântara em 1859


fotos 1 mapa corográfico da província do Paraná biblioteca nacional, rio de Janeiro – documentação cartográfica 2 e 3 j. h. elliott – Biblioteca nacional seção de iconografia

E

ntre 1845 e 1889, o Império desenvolveu uma política de aldeamentos indígenas, implantada em todas as províncias do Brasil. Os aldeamentos eram colônias agrícolas com a finalidade de atrair populações indígenas e transformá-las em trabalhadores rurais. Foram criados a partir de um acordo do Estado brasileiro com o Propaganda Fide (propagação da fé, em latim), órgão do Vaticano hoje chamado de Sagrada Congregação para Evangelização dos Povos, responsável por enviar missões católicas a diferentes partes do mundo. O Vaticano queria aumentar a presença da Igreja no Brasil por meio da conversão de índios ao cristianismo. Já a coroa imperial brasileira estava preocupada em ampliar o controle sobre o território nacional, angariar trabalhadores para o cultivo de café e borracha, além de construir estradas para interligar regiões afastadas. Para atender a esses interesses, o imperador Pedro II assinou um decreto que permitia a vinda de missionários da Ordem Menor dos Capuchinhos da Itália para organizar e administrar os aldeamentos indígenas. Por meio do trabalho dos missionários – que eram contratados como funcionários do Império –, pretendia-se que os índios fossem “civilizados” e catequizados e, mais tarde, se juntassem aos imigrantes europeus que chegavam ao Brasil e se estabeleciam em colônias. Além disso, ao incentivar que os índios deixassem suas terras e se deslocassem até a região dos aldeamentos, o governo esperava que as áreas indígenas pudessem ser ocupadas por fazendeiros e trabalhadores imigrantes. Alguns líderes de aldeias indígenas recebiam títulos militares e eram convocados para lutar em conflitos, entre eles a Guerra do Paraguai (1864-1870). Além do cultivo de mantimentos, os índios também eram chamados a trabalhar na construção de estradas, recebendo salários. Resultado de pesquisas de doutorado e pós-doutorado apoiadas pela FAPESP, o livro Terra de índio: Imagens em aldeamentos do Império (editora Terceiro Nome), de Marta Amoroso, docente no

2

3

Vista do Salto dos Dourados no rio Paranapanema e retrato do cacique Pahi Kaiowá, do aldeamento de Santo Inácio do Paranapanema

Departamento de Antropologia da Universidade de São Paulo (USP), analisa o fenômeno em um sistema de aldeamentos no Paraná, especialmente em seu núcleo central, São Pedro de Alcântara, um dos mais duradouros do Brasil. Há relativamente poucos estudos sobre os povos indígenas no século XIX, segundo a pesquisadora, para quem essa escassez está relacionada com as atividades de catequese do período, entre elas a dos capuchinhos, que se esforçaram em difundir a ideia de que todos os índios haviam sido convertidos, em uma tentativa de diluir sua identidade histórica. A partir do levantamento dos relatórios e cartas que estão sob a guarda do Arquivo da Custódia da Ordem Menor dos frades capuchinhos no Santuário Basílica de São Sebastião, no bairro da Tijuca, no Rio de Janeiro, dos relatos de viajantes naturalistas que percorreram a região estudada e dos trabalhos de etnólogos como o alemão Curt Nimuendaju, a pesquisadora buscou empreender uma leitura que privilegiasse a experiência dos aldeamentos da perspectiva dos índios, revelando uma nova dimensão do fenômeno, até então estudado principalmente de acordo com a visão oficial. Segundo Marta, a documentação religiosa sobre o aldeamento de São Pedro de AlpESQUISA FAPESP 249  z  89


Índio Vei-Banj Coroado (à esq.), do aldeamento de São Pedro de Alcântara, e o capitão Manuel Arepquembe, chefe dos índios Coroados do aldeamento de São Pedro de Alcântara

cântara permite o acesso a informações sobre a forma de ocupação e de vivência das diferentes etnias nos aldeamentos. Evidencia que líderes Kaingang se envolveram com a administração dos aldeamentos e ali permaneceram mesmo depois de encerrada a missão capuchinha, como foi o caso da atual Terra Indígena São Jerônimo da Serra, no Paraná. Além disso, os documentos dos capuchinhos relatam a fuga de grupos indígenas assolados por epidemias e conflitos que emergiram da aproximação forçada de grupos inimigos. apelo do paladar

No livro, a pesquisadora também descreve como a criação dos aldeamentos esteve conjugada à constituição de colônias militares, evidenciando a intenção de, por meio de intimidação, estabelecer fronteiras internas no Brasil que beneficiassem proprietários de terra e imigrantes europeus. Maria Luiza Ferreira de Oliveira, docente de história do Brasil no curso de história da Universidade Federal de São Paulo (Unifesp) em Guarulhos, explica que a colonização militar foi adotada como política de Estado no mesmo momento em que o governo quis aumentar o domínio sobre terras indígenas para fomentar o cultivo de café no Sudeste e de açúcar e algodão no Nordeste. “Havia ainda a expectativa de encontrar riquezas potenciais nas matas habitadas por índios”, afirma. Nesse contexto, a ideia que presidia a instalação das colônias militares era a aproximação pacífica, ou 90  z  novembro DE 2016

A proximidade das colônias militares era ao mesmo tempo uma aproximação pacífica e uma forma de intimidação

seja, tentar convencer os índios a aderir aos aldeamentos. “Mas, na realidade, essa foi a maneira encontrada pelo Império de tornar o convencimento mais efetivo, misturando ameaças e elementos de sedução”, sustenta a pesquisadora. Localizado às margens do rio Tibagi, o aldeamento de São Pedro de Alcântara funcionava como sede de uma rede que se estendia por São Paulo e pelo Paraná, ao longo de todo o rio Paranapanema. Esse aldeamento chegou a contabilizar cerca de 4 mil índios de quatro etnias: os Kaingang, do tronco linguístico Macro-Jê, e Kaiowá, Nhandeva e Mbyá, falantes da língua guarani. O número inclui tanto índios que se mudaram para perto dos aldeamentos como outros que já viviam na

região. As pesquisas de Marta apontam a maneira como cada povo indígena se relacionava com o aldeamento. A motivação de cada grupo variava conforme interesses específicos: os Guarani-Nhandeva iam buscar roupas e remédios distribuídos pelos religiosos, mas não se fixavam nos aldeamentos, enquanto os Kaingang e os Guarani-Kaiowá se engajavam em trabalhos de agricultura e nas atividades da destilaria de aguardentes do aldeamento de São Pedro de Alcântara. Missionários e funcionários do governo moravam nas sedes dos aldeamentos, mas os índios ficavam em aldeias nas proximidades das sedes. Havia uma dinâmica de migrações entre os núcleos e, em alguns casos, retorno às terras de origem. “Os missionários tentavam seduzir os índios pelo paladar, pretendendo que eles tivessem uma experiência corpórea da civilização cristã, por meio da oferta de sal, açúcar, café e cachaça”, conta a pesquisadora. Acreditava-se que, com esses atrativos, os índios seriam seduzidos pelo paladar a abandonar a vida selvagem. Mas a política do Império previa que, quando o índio se “civilizava”, deixava de ter direito aos recursos dos aldeamentos. Os indicadores de que os índios tinham se “civilizado” eram a disposição em trabalhar na lavoura, o uso de vestimentas e abandono da vida na selva. Ocorria, no entanto, de alguns índios “civilizados” se mudarem para outros aldeamentos e se fingirem de “selvagens” para pedir roupas, ferramentas, alimentos e outras provisões.


fotos  Franz keller, 1865, Newton carneiro 1950 Iconografia paranaense, curitiba, Impressora paranaense

O aldeamento de São Pedro de Alcântara em desenho de 1865 do alemão Franz Keller

A partir de 1845, data da primeira leva trazida pelo programa de aldeamentos, cerca de 100 capuchinhos chegaram da Itália. Em seus primeiros relatórios, descreveram os índios como seres dotados de espírito infantil e capacidade intelectual limitada. No entanto, as pesquisas de Marta mostraram como, com o passar dos anos, o processo de convivência alterou essa percepção. “Os índios começaram a ser vistos como pessoas de mentalidade pura, não adulterada”, afirma a pesquisadora. Um exemplo desse fenômeno são os escritos do frei Thimoteo de Castelnuevo – preservados no Santuário Basílica de São Sebastião –, que permaneceu no aldeamento de São Jerônimo de Alcântara durante 50 anos. O religioso terminou a vida, segundo a antropóloga, “exaltando a grandeza da alma indígena, em contraste com a dissimulação da civilização”. Em outro relato, o frei Luís de Cimitille revela frustração com as dificuldades enfrentadas para catequizar o cacique-capitão Manuel Arepquembe, chefe dos índios Coroados (Kaingang) no aldeamento de São Jerônimo. Em suas memórias, o frade relata as diversas tentativas infrutíferas de converter o índio ao cristianismo, que se recusava a aceitar a existência de um deus supremo e onipresente. O religioso

constatou que Arepquembe frequentava o aldeamento para receber doações, e reconheceu o fracasso da empreitada da catequização. Por fim, reclamou que o índio nem sequer aprendera a fazer o sinal da cruz e, no último encontro, tinha se despedido com uma risada, acenando-lhe com “um sarcástico adeus”. conveniência

Segundo Marta, uma evidência de que muitos índios se aproximavam dos aldeamentos conforme seus interesses foram as tentativas de tornar São Pedro de Alcântara economicamente produtivo, por meio do cultivo de café e tabaco. Essas experiências não foram bem-sucedidas porque os índios não se interessaram pelo primeiro e se interessaram em demasia pelo segundo, esgotando a plantação. Mais tarde, quando os missionários decidiram experimentar a atividade de plantar cana-de-açúcar e criar uma destilaria de cachaça, receberam a adesão dos Kaingang e dos Guarani-Kaiowá, que se envolviam no trabalho pois gostavam da bebida. “Alguns povos também se aproximavam dos aldeamentos para conseguir apoio, como armas, usadas em disputas com grupos rivais”, informa a pesquisadora. Essas conclusões se contrapõem, diz Marta, à percepção tradicional da política de aldeamentos, que tenderia a colocar os povos indígenas em uma posição de passividade. “Mesmo quando ‘civilizados’, os índios fizeram valer suas crenças

e se aproveitaram da política de aldeamentos da forma como lhes convinha”, defende a antropóloga Paula Montero, professora do Departamento de Antropologia da USP e coordenadora adjunta de Ciências Humanas e Sociais na FAPESP, ao considerar a reconstrução da subjetividade dos índios como um dos principais êxitos das pesquisas de Marta Amoroso. Paula estudou o fenômeno dos aldeamentos conduzidos por missionários cristãos nas pesquisas Missionários cristãos na Amazônia brasileira: Um estudo de mediação cultural (2001-2007) e A textualidade missionária: As etnografias salesianas no Brasil (2008-2010). Em relação à escassez de pesquisas sobre a questão indígena no século XIX, Paula Montero esclarece que, a partir dos anos 1950, houve um esforço da etnologia para realizar o levantamento das populações indígenas in loco, com a preocupação de entender seu universo cosmológico – conhecimento que tomou conta dessa área de pesquisa até pouco tempo atrás. Além disso, segundo a pesquisadora, nos últimos 50 anos os religiosos foram vistos como responsáveis por destruir as populações indígenas – concepção que prejudicou o interesse em abordar as relações entre missionários e índios no campo de estudos antropológicos. n

Livro Amoroso, M. Terra de índios: Imagens em aldeamentos do Império. São Paulo: Terceiro Nome, 2014, 246 p.

pESQUISA FAPESP 249  z  91


memória

1

Escavações orientais Vindo do Japão em 1934, arqueólogo Kiju Sakai produziu rica coleção a partir de expedições científicas no interior do Brasil   |  Rodrigo de Oliveira Andrade

O

antropólogo e arqueólogo japonês Kiju Sakai desembarcou no Brasil em maio de 1934, em meio a um intenso fluxo migratório, iniciado três décadas antes, em junho de 1908, com a chegada de dezenas de famílias japonesas ao porto de Santos. No entanto, diferentemente da maioria dos imigrantes japoneses, em geral camponeses vindos para trabalhar em fazendas de café no interior de São Paulo, Sakai se envolveu em diversas expedições científicas pelo interior do país. As atividades faziam parte de um projeto mais amplo de pesquisa no âmbito do Instituto Kurihara de Ciências Naturais, fundado em 1931 na Fazenda Primeira Aliança, núcleo de colonização japonesa na região de Mirandópolis, interior paulista. Até então 92 | novembro DE 2016

pouco conhecidos, os trabalhos de Sakai começam agora a ser mais bem estudados, evidenciando suas contribuições para a história da arqueologia no Brasil no início do século XX. Kiju Sakai (1910-1986) nasceu em Tomakomai, no Japão, mas passou a infância em Sapporo. Após concluir os estudos, mudou-se para Tóquio, onde iniciou o curso de etnologia na Universidade Meiji Gakuin. Seu interesse científico manifestou-se cedo. Ainda criança Sakai se interessava pelas ligações fonéticas entre as palavras do japonês moderno e as dos antigos habitantes da província de Hokkaido, no norte do Japão. A vocação pela etnografia não raro o levava a passar horas em aldeias do interior do país observando o estilo de vida dos habitantes locais.

Aquarelas feitas por Sakai para retratar fragmentos de cerâmica coletados durante trabalho de campo


fotos  HATTORI, M.L. & strauss, a. / boletim do museu paraense emílio goeldi. ciências humanas

Assim que chegou ao Brasil, Sakai se juntou a outros imigrantes japoneses assentados na Fazenda Primeira Aliança. Logo se envolveu com as atividades de pesquisa desenvolvidas pelo Instituto Kurihara. Chefiado pelo lavrador Shinishi Kamiya (1893-1960), mentor das atividades científicas, o instituto investia em estudos sobre áreas como astronomia, meteorologia, zoologia, botânica, arqueologia, antropologia, história, entre outras. Sakai se tornou responsável por arqueologia e antropologia, passando a documentar o modo de vida dos habitantes do Vale do Ribeira e a empreender expedições científicas aos sambaquis no sul do estado de São Paulo. Ele coordenou pesquisas de campo em ao menos seis municípios do estado e escavações em sete sítios arqueológicos, além de descrições etnográficas dos índios guaranis e kadiweus. As expedições resultaram na coleta de dezenas de artefatos de pedra e de cerâmica e também na descoberta de antigas estruturas indígenas e sambaquis, conforme verificou a historiadora Marcia Lika Hattori, do Museu de Arqueologia e Etnologia da Universidade de São Paulo (MAE-USP). Ao lado do arqueólogo André Strauss, professor visitante na Universidade de Tübingen, na Alemanha, ela analisou documentos produzidos por Sakai, fotos de campanhas arqueológicas da década de 1930 e aquarelas feitas pelo antropólogo japonês para retratar a cultura material e a coleção arqueológica resultante dos trabalhos de campo,

Sakai (centro) durante escavações de esqueletos humanos no noroeste de São Paulo

2

composta por esqueletos humanos pré-históricos, instrumentos de pedra lascada, machados polidos, pontas de flechas, lanças e cerâmicas indígenas. As atividades de pesquisa de Sakai prosseguiram intensamente até o início da Segunda Guerra Mundial, em 1939. Em 1941 ele viajou ao Japão para levantar fundos para ampliar as atividades do instituto. No entanto, com o ataque da Marinha japonesa à base americana de Pearl Harbor, em dezembro de 1941, e a intensificação da guerra, foi proibido de voltar ao Brasil. Seu acervo encontrava-se

3

exposto no Instituto Kurihara, cuja sede à época havia sido transferida para o bairro da Liberdade, em São Paulo. “Com a entrada do país na guerra, a situação dos imigrantes japoneses no Brasil se deteriorou”, explica Strauss. “Muitos passaram a se sentir intimidados por atos do governo, como o decreto que congelava seus bens.” Preocupados com o destino do acervo, sobretudo dos esqueletos humanos exumados durante pesquisas arqueológicas empreendidas por Sakai, os membros do instituto no Brasil decidiram dividir

Capa da revista Natura, publicação científica do Instituto Kurihara para divulgação dos trabalhos de seus pesquisadores

a coleção para evitar que ela fosse confiscada. Uma parte ficou com um dos pesquisadores, Hidefumi Okubo. A outra foi guardada dentro de caixas com plantas e transportada até o Paraná em meio a outras caixas, despistando as autoridades. Sakai voltou ao Brasil em 1967, mas somente em 1978 se encontrou com suas coleções arqueológicas e diários de campo. Preocupado em divulgar seus trabalhos, publicou em 1979 a versão em japonês de Notas arqueológicas do estado de São Paulo. Em 1981 lançou o livro em português, editado pelo Instituto Paulista de Arqueologia. Sakai viveu os últimos anos de vida em um asilo em Ferraz de Vasconcelos, na periferia de São Paulo. Em 2002, sua coleção foi doada à USP. Durante quase uma década a equipe do Laboratório de Estudos Evolutivos e Ecológicos Humanos, coordenado pelo bioantropólogo Walter Neves, dedicou-se à higienização, curadoria e organização desse material. A coleção arqueológica de Sakai está hoje exposta no Museu Histórico e Arqueológico de Lins, interior paulista. n PESQUISA FAPESP 249 | 93


resenha

O mundo misterioso do sadomasoquismo

N

Prazeres proibidos: Erotismo, gênero e limites da sexualidade Maria Filomena Gregori Companhia das Letras 288 páginas | R$ 69,90

94 | novembro DE 2016

a primeira das duas partes deste livro, a antropóloga Maria Filomena Gregori, pro­ fessora da Universidade Estadual de Campinas (IFCH-Unicamp), apresenta uma face do erotismo contemporâneo que ganhou força e visibilidade nas últimas décadas. É o “erotismo politicamente correto”, na designação um tanto irônica da autora: aquele que enfatiza nas práticas sexuais a segurança e os benefícios à saúde e à autoestima. Esse território hoje iluminado e aberto a quem quiser ver leva Maria Filomena a estudar, na segunda parte, “um mundo misterioso”, nas palavras do prefácio escrito por Eliane Robert de Moraes, professora da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP) e organizadora da Antologia de poesia erótica brasileira (editora Ateliê, 2015). Trata-se do universo do sadomasoquismo, que permitiu a Maria Filomena encarar o principal desafio a que se propôs ao editar em livro os resultados de uma pesquisa realizada ao longo de 13 anos: “discutir as articulações entre prazer e perigo” em atividades cercadas de tabus que se desenrolam em “masmorras” (dungeons), nas quais jogos (plays) com chicotes, acessórios de couro, cordas atadas em nós e com a suspensão de corpos humanos tiram seus adeptos por algumas horas daquilo que chamam de vida “baunilha” – a rotina comum. A fase exploratória da pesquisa consistiu em visitas a sex shops em São Francisco e Berkeley (EUA) e, algum tempo depois, São Paulo. São Francisco foi escolhida por ser considerada um “lugar de maior tolerância para o exercício de escolhas sexuais alternativas”. Ao contrário das lojas de cidades mais conservadoras, em que a imagem do corpo feminino era o atrativo mais visível e os brinquedos eróticos se apresentavam como destinados primordialmente a casais heterossexuais, em São Francisco esse padrão era quebrado nas lojas para gays e na Good Vibrations, criada em 1977 por Joani Blank, “especialista em saúde pública sintonizada com o feminismo”. Nesses sex shops, o sadomasoquismo era tratado como qualquer outra modalidade de sexo e, além dos artefatos destinados aos plays, eram oferecidos também manuais com regras de

conduta para minimizar os riscos das práticas sadomasoquistas, em que são tênues os limites entre encenação, dor consentida e violência. O princípio que orientou a criação da Good Vibrations, contudo, é o oposto de uma normatização “politicamente correta”. Em um texto citado e endossado por Maria Filomena, Joani Blank afirma que “a ideia de que o prazer pelo simples prazer é motivação suficiente para a atividade sexual e que nenhuma forma de experiência sexual é moral, estética ou romanticamente superior a outra, é a filosofia subversiva por trás dos brinquedos sexuais”. Quando a pesquisa chega a São Paulo, Filomena e sua equipe de pesquisadores recolhem informações em sex shops de várias regiões, com diferentes tipos de público, e encontram na área de comércio mais luxuoso da cidade o exemplo principal de “erotismo politicamente correto”, uma loja voltada quase exclusivamente ao público feminino, estimulado a “apimentar” suas relações estáveis. Ao contrário do que aconteceu em São Francisco, no Brasil essas lojas não surgiram por ativismo feminista, mas por demanda de mercado. Entretanto, abordar o fenômeno – assim como a emergência mais recente de produtos e serviços para as práticas sadomasoquistas – sob um ponto de vista exclusivamente econômico elimina indagações mais complexas sobre as transgressões às normas geradas por essas práticas. Para a autora – que descreveu no livro mais de uma visita a clubes de sadomasoquismo, fez entrevistas e manteve contatos com redes de praticantes –, o interesse em investigar os rituais desse “mundo misterioso” reside “no fato de mobilizarem e mostrarem com força dramática [...] as materializações e corporificações de normas de gênero e de sexualidade”. Sem subestimar a satisfação propriamente corporal que a confluência de dor e prazer traz aos praticantes do sadomasoquismo, Maria Filomena Gregori defende que suas representações têm um valor e uma função em si mesmas: “As paródias, os arremedos e as simulações produzidas mobilizam um jogo que põe em cena as posições de poder, as figuras que as ocupam e as marcas de diferenciação social, colocando-as em risco”.

eduardo cesar

Márcio Ferrari


carreiras

Redação Científica

A ciência em palavras

ilustração  nelson provazi

As chances de um artigo ser aceito para publicação aumentam se ele for bem escrito Um critério importante de avaliação da produtividade científica de um pesquisador no Brasil é a quantidade e a qualidade dos artigos publicados. Para muitos, eles constituem o principal caminho para a exposição dos resultados de estudos, além de ser o meio pelo qual os pesquisadores constroem sua autoridade científica, ao exporem suas ideias e experimentos realizados por meio de métodos de trabalho reconhecidos como válidos por especialistas da mesma área. Ainda que a maioria dos pesquisadores brasileiros esteja familiarizada com o processo de submissão, avaliação e publicação de artigos científicos, muitos manuscritos são recusados, em geral devido a falhas de redação científica, como resumos incompletos ou conclusões que não deixam claro qual é a novidade do

trabalho. Além de bem estruturado, com uma metodologia robusta e resultados convincentes, cada vez mais se reconhece que um artigo científico precisa ser bem escrito para ser aceito em uma boa revista. Dois artigos ajudam a dar uma dimensão do problema. Em 2011 os editores do Jornal Brasileiro de Patologia e Medicina Laboratorial publicaram um editorial apresentando um balanço dos trabalhos submetidos entre janeiro de 2009 e abril de 2011. Dos 174 manuscritos enviados para revisão dos pareceristas, 61 foram publicados, 75 foram recusados, 30 estavam em fase de análise e 8 haviam sido aprovados, mas aguardavam publicação. Esses números dão uma ideia do afluxo de trabalhos submetidos à revista e da grande responsabilidade em selecionar os manuscritos pelo

mérito científico. Mais recentemente os editores da revista Ciência & Saúde Coletiva publicaram um editorial discutindo os problemas mais comuns dos manuscritos avaliados por seus pareceristas. Segundo eles, a seção introdutória de muitos artigos não apresentava o contexto nacional e internacional de pesquisas relacionadas ao objeto de estudo. A argumentação dos resultados, não raro, era feita de modo descritivo e pouco analítico, e as conclusões ou continuavam a discussão, ao invés de concluí-las, ou fugiam do assunto, apresentando propostas que não resultavam no tema estudado. Se por um lado os editoriais evidenciam um esforço dessas revistas científicas em criar um canal de diálogo franco e transparente entre editores, pareceristas e autores, de modo a PESQUISA FAPESP 249 | 95


96 | novembro DE 2016

1

Na introdução de um artigo científico, procure apresentar o trabalho e discuti-lo à luz de uma perspectiva mais ampla de pesquisas nacionais e internacionais desenvolvidas na mesma área

2

Explique com clareza como se chegou aos resultados apresentados, destacando o tipo de abordagem, como se definiu a amostra analisada e com quais instrumentos se operacionalizou o trabalho

3

Exponha nos resultados apenas as evidências que fazem parte da história que pretende contar, e na discussão coloque a metodologia e os resultados em perspectiva, de modo a mostrar ao leitor a relevância das conclusões

4

Um texto científico deve ser uma cadeia de argumentos em prol de uma sequência lógica que deve ser percebida dentro de cada frase e parágrafo

vez, os resultados devem expor as evidências que fazem parte da história que se pretende contar. Já a discussão deve colocar a metodologia e os resultados em perspectiva diante do que já se sabe sobre o assunto, para mostrar ao leitor a validade e a relevância das conclusões. “É necessário apresentar argumentos sólidos, por meio de um texto conciso, preciso e convincente”, ele diz. De modo mais amplo, Volpato sugere que os autores pensem em títulos como se fossem um pequeno resumo do que foi estudado, fazendo com que os leitores se interessem pelo texto. A exposição frequente à leitura de artigos, à revisão de manuscritos e à submissão de trabalhos para boas revistas pode ajudar a aumentar a experiência de redação, de acordo com o médico Paulo Abrahamsohn, do Instituto de

Ciências Biomédicas (ICB) da USP e professor de redação científica no ICB. “A redação é uma atividade como outra qualquer e para adquirir prática e habilidade é necessário muito treino”, ele diz. Também é muito comum que as pessoas tenham seus artigos rejeitados porque escolheram o periódico errado (ver Pesquisa FAPESP nº 244). Cada revista tem um escopo característico e aceita tipos particulares de artigos. Assim, é importante que o pesquisador leia as instruções do periódico em que se deseja publicar e veja os tipos de artigos publicados nos últimos anos. “Se o perfil do artigo for adequado, escreva uma boa carta de encaminhamento explicando para o editor por que seu artigo deve ser publicado no periódico dele.” n Rodrigo de Oliveira Andrade

ilustração  nelson provazi

aprimorar a qualidade da produção científica brasileira, por outro, põem em destaque a falta de conhecimento de parte dos pesquisadores brasileiros sobre aspectos metodológicos e de redação científica. “Uma parcela desse problema se deve ao fato de pouquíssimos cursos de graduação e pós-graduação oferecerem disciplinas para ensinar metodologia e redação científica aos alunos”, diz o biólogo Glauco Machado, do Instituto de Biociências da Universidade de São Paulo (IB-USP). “Faltam disciplinas que permitam que os alunos tenham experiências práticas e úteis sobre a redação de um artigo científico.” Há mais de 10 anos Glauco coordena cursos de redação científica em universidades, ONGs e institutos de pesquisa do país (ver Pesquisa FAPESP nº 242). Ele explica que as dificuldades enfrentadas por seus alunos perpassam a falta de noções básicas de gramática. Como resultado, os textos costumam ser confusos e, às vezes, ininteligíveis. Muitos alunos também pensam que a escrita científica deve ser rebuscada, o que os leva a usarem palavras e construções desnecessariamente complicadas. “Em textos científicos, o compromisso do pesquisador precisa ser com a clareza das ideias, e não com a complexidade do texto”, afirma. “Um texto científico deve ser, acima de tudo, uma cadeia de argumentos em prol de uma sequência lógica que pode ser percebida dentro de cada frase.” Desse modo, Gilson Volpato, do Instituto de Biociências da Universidade Estadual Paulista (IB-Unesp), em Botucatu, autor de livros sobre redação científica e professor de redação científica há 30 anos, recomenda algumas estratégias para aprimorar a qualidade do texto dos artigos científicos. A introdução deve apresentar o trabalho e discuti-lo à luz de uma perspectiva mais ampla de pesquisas, enquanto a metodologia deve indicar apenas os procedimentos usados para a obtenção dos resultados. Por sua


Manual ajuda estudante a abrir empresa

O homem que calcula Engenheiro mecânico Fernando Orsatti deixou de dar aulas para abrir empresa de matemática aplicada

foto  eduardo cesar

A Agência de Inovação da Universidade Federal de São Carlos (UFSCar) lançou na forma de livro eletrônico para smartphones e tablets um manual prático que pretende ajudar a esclarecer questões e procedimentos relacionados à abertura de empresas no Brasil. Elaborado pela equipe de Transferência de Tecnologia da Agência de Inovação da UFSCar, o manual se propõe a estimular empreendimentos inovadores no país. “O conhecimento gerado e protegido pela propriedade intelectual precisa estar disponível à sociedade e uma das maneiras de tornar isso possível é estimulando o empreendedorismo”, diz a diretora executiva da Agência de Inovação da UFSCar, Ana Lúcia Vitale Torkomian. Segundo ela, um dos objetivos é instigar o surgimento de novas spin-offs — empresas criadas para explorar economicamente o conhecimento gerado dentro da universidade. “Para isso, tentamos esclarecer dúvidas sobre o processo de registro de empresas, considerado muito burocrático e complicado, facilitando a vida de empreendedores iniciantes”, completa. Inicialmente criado para atender aos membros da comunidade acadêmica da UFSCar, sobretudo alunos de graduação e pós-graduação, o manual pode ser usado por qualquer pessoa interessada em abrir um negócio ou apenas entender o processo de formalização de uma empresa. Assim, a agência espera facilitar o acesso a esse tipo de informação, disponibilizando-a em um formato mais próximo da realidade de parte de seu público-alvo. “Esperamos que esse material sirva como apoio para empreendedores dentro e fora da comunidade acadêmica da UFSCar e os ajude a tirar iniciativas de novos negócios do papel”, diz. Para baixar o manual completo, acesse bit.ly/literaros39. n R.O.A.

perfil

Em 2009, durante o pós-doutorado na Escola Politécnica da Universidade de São Paulo (Poli-USP), o engenheiro mecânico Fernando Orsatti percebeu que poderia aplicar o conhecimento adquirido como professor e pesquisador na solução de problemas operacionais de empresas. Ao lado de mais três amigos, todos formados na Poli-USP, fundou a Mínimo, empresa de desenvolvimento de sistemas computacionais voltados à solução de problemas que necessitem de algum tipo de modelagem matemática, o que pode envolver desde a implementação de algoritmos de inteligência artificial para a detecção de fraudes em cartões de crédito a sistemas que otimizem o processo de distribuição e logística. Orsatti concluiu a graduação em 2003 e logo em seguida ingressou no doutorado para estudar sistemas de redes interconectadas, como os que gerenciam as vias de transações financeiras. Esses sistemas são importantes porque são capazes de manter seu sincronismo e estabilidade mesmo diante da ruptura de um ou mais nós que integram as redes. Em 2007, após concluir o doutorado, um de seus professores, o engenheiro mecânico Agenor de Toledo Fleury, convidou-o para ministrar aulas de vibrações mecânicas e modelagem para alunos de graduação e de mestrado no Programa de Pós-graduação em Engenharia Mecânica no Centro Universitário da FEI, em São Bernardo do Campo, São Paulo. Em 2011 ele foi convidado para trabalhar na criação de um curso de

engenharia da inovação para o Sindicato dos Engenheiros de São Paulo. Após esse trabalho, Orsatti ajudou a elaborar o curso de engenharia no Insper, instituição privada de ensino superior, em São Paulo. “Foi quando comecei a fazer a transição das minhas atividades de pesquisa e docência para a prestação de serviços a empresas”, diz. Em 2016, Orsatti passou a se dedicar apenas à Mínimo. Ele explica que a empresa pretende aproximar o universo acadêmico do corporativo. “Atuamos para resolver necessidades empresariais por meio de conhecimento em matemática avançada, combinando especialização técnica e domínio dos fundamentos matemáticos para a resolução de problemas complexos.” O desafio no início foi definir e delimitar a área de atuação da empresa. “Por se tratar de um serviço pouco difundido no mercado, demorou algum tempo para conseguirmos empacotá-lo de forma a termos sucesso na obtenção de clientes”, entre eles o site de comparação de preços e produtos Buscapé, o fabricante de cimentos Intercement e a organização não governamental Saúde Criança de São Paulo. Mais recentemente, a empresa conseguiu financiamento da FAPESP por meio do programa Pesquisa Inovativa em Pequenas Empresas (Pipe) para o desenvolvimento de um sistema de gestão de escala de aulas de professores, com o objetivo de substituir um processo realizado manualmente. “Esperamos consolidar a empresa como prestadora de serviços na área de modelagem matemática, de modo a torná-la mais conhecida no mercado.” R.O.A.

PESQUISA FAPESP 249 | 97


classificados

98 | novembro DE 2016

­_ Anuncie você também: tel. (11) 3087-4212 | www.revistapesquisa.fapesp.br


Você sabia que nosso site tem material exclusivo e todo o conteúdo da revista impressa?

x Notícias, vídeos, galerias de imagens e podcasts x Todas as edições integrais, da primeira em 1995 à mais recente x Edições traduzidas para inglês e espanhol desde 2000 x Suplementos especiais e coletâneas internacionais em inglês, espanhol e francês x Opção de folhear na tela ou em dispositivos móveis, pelo aplicativo issuu, como se fosse a revista impressa x Navegação por assuntos e por editorias

Visite o nosso site e se cadastre para receber o boletim e estar sempre a par das novidades: revistapesquisa.fapesp.br


O que a ciência brasileira produz você encontra aqui 12 edições por R$ 100 Condições especiais para estudantes e professores

revistapesquisa.fapesp.br | assinaturaspesquisa@fapesp.br

Brasil de extremos  

Pesquisa FAPESP - Ed. 249