Page 1


INSCREVA-SE E PARTICIPE DO PRINCIPAL EVENTO DO ANO VOLTADO À BIOENERGIA

Conferência Brasileira de Ciência e Tecnologia em Bioenergia Brazilian BioEnergy Science and Technology Conference

De 20 a 24 de outubro de 2014

De caráter internacional e com a participação de palestrantes renomados, a conferência será um fórum de discussão sobre os principais avanços na área de bioenergia, incluindo aspectos tecnológicos, sociais, econômicos e ambientais relacionados à produção e uso de bioenergia

Oito minicursos serão ministrados no evento: melhoramento da cana-de-açúcar manejo agrícola da cana-de-açúcar produção de etanol no Brasil rotas bioquímicas para produção de etanol celulósico rotas termoquímicas para a produção de biocombustíveis biorrefinarias motores movidos a biocombustível sustentabilidade da produção de bioenergia. Os participantes poderão realizar visitas técnicas à Usina São Manoel, em São Manoel; ao Centro de Tecnologia Canavieira (CTC), em Piracicaba (SP), e ao Laboratório Nacional de Ciência e Tecnologia do Bioetanol (CTBE), em Campinas.

Envio de resumos de trabalhos até 20 de julho de 2014 OS MELHORES TRABALHOS SERÃO PREMIADOS Para maiores informações, acesse

www.bbest.org.br 4 | julho DE 2014

Pós-graduandos podem participar do BE-BASIC International Design Competition for Students, enviando o seu plano de inovação para a produção sustentável de produtos baseados em bioenergia. O autor da melhor proposta será premiado (R$ 30 mil) e poderá colocar a sua ideia em prática


fotolab

a

b

c

d

Orgânicas e cambiantes As imagens mostram o interior de botões florais de maracujá (Passiflora edulis). Elas foram obtidas pela técnica OPT (Optical Projection Tomography), que utiliza métodos matemáticos para reconstruir tridimensionalmente o que se deseja observar. A flor é vista de lado (A), de cima (B) e por dentro (C e D), indicando as diferentes densidades dos tecidos do botão. As imagens foram feitas por Alexandra Verwij, sob orientação de Marcelo Carnier Dornelas, do Instituto de Biologia da Universidade Estadual de Campinas (IB-Unicamp), que estuda o desenvolvimento floral e a biologia molecular do maracujá.

Imagens enviadas por Marcelo Carnier Dornelas, do IB-Unicamp

Se você tiver uma imagem relacionada à sua pesquisa, envie para imagempesquisa@fapesp.br, com resolução de 300 dpi (15 cm de largura) ou com no mínimo 5 MB. Seu trabalho poderá ser selecionado pela revista.

PESQUISA FAPESP 221 | 3


julho  n.221 46 Internet

Estudo indica que o Twitter é a rede social mais usada para divulgar artigos científicos de revistas brasileiras

46

CIÊNCIA CAPA 16 Sensor monitora de modo não

invasivo alterações no cérebro causadas por traumas e pela gestação

ENTREVISTA

24 Demi Getschko Primeiro brasileiro a ser incluído no Hall da Fama da Internet fala dos atuais desafios da web

POLÍTICA CIENTÍFICA E TECNOLÓGICA 32 Publicação

Grupo propõe novo método para classificar o papel de cada autor nos artigos científicos

capa  ilustração mariana coan

36 Infraestrutura

Facilities garantem acesso a equipamentos de última geração para múltiplos usuários e modelo avança no estado de São Paulo

42 Educação

Projetos de alunos de escolas públicas despontam entre os melhores apresentados em feiras de ciência

48 Astronomia

Pesquisadores brasileiros explicam o tamanho de Marte

54 Astrofísica

Modelo destaca irregularidades na nuvem de gás e poeira que envolve a estrela Eta Carinae

56 Imunologia

Virulência do protozoário T. gondii fortaleceu defesas de seu principal hospedeiro

58 Oceanografia

Vermes marinhos revelam estratégias adaptativas às águas frias e escuras da costa brasileira

TECNOLOGIA 70 Biofísica

Microssensores ajudam a entender comportamento das abelhas Apis mellifera

74 Sensoriamento remoto Software automatiza a avaliação de queima de cana em imagens de satélite

76 Computação

IBM em São Paulo cria aplicativo que permite a cegos “enxergar” conteúdo de placas e painéis

78 Medicina nuclear

62 Genômica

Novo reator deve suprir o país de radiofármacos para diagnóstico e tratamento de doenças em 2018

66 Ecologia

HUMANIDADES

Desvendada diversidade genética de tangerinas, laranjas e limões Árvores de clima frio já foram comuns na região Norte do Brasil

68 Especial Biota Educação XIV

Mudanças nos ciclos de substâncias químicas podem acentuar deterioração dos ecossistemas

82 Sociologia

Estudo estima que 3,8 milhões de pessoas vivem precariamente em favelas, loteamentos clandestinos e loteamentos irregulares em 113 municípios paulistas

seçÕes  3 Fotolab  5 Carta da editora  6 Cartas  7 On-line  8 Dados e projetos  9 Boas práticas  10 Estratégias  12 Tecnociência 86 Memória  88 Arte  92 Ficção  94 Resenhas  97 Carreiras  99 Classificados 4 | julho DE 2014


carta da editora

Cérebro, internet e dribles no tempo Mariluce Moura | Diretora de Redação

F

echar esta edição de Pesquisa FAPESP na situação, para nós inédita, de ter uma Copa do Mundo acontecendo em casa teve qualquer coisa de insólito. Envolveu, por exemplo, o desafio de manter um grau de disciplina bem acima do usual para conseguir obedecer à dinâmica e aos prazos de produção da revista, em meio às fortes paixões despertadas pelos jogos do Brasil e ao genuíno interesse pelo futebol que outras grandes ou surpreendentes seleções mostrariam. E envolveu, certamente, uma capacidade íntima de resistência para não sermos arrastados pelo espírito geral de férias, pelo clima justificado de festa prolongada, que se espraiou pelo país desde 12 de junho, consciência sobre o lado negócios e eventuais sombras que a Copa embute à parte. Por exemplo, no sofrido jogo do Brasil contra o México, em 17 de junho, havia que trabalhar antes dele segurando a ansiedade, e trabalhar, em seguida, contendo alguma frustração pelo empate, depois de torcer ardorosamente, olhos grudados num televisor de 42 polegadas posto estrategicamente na redação, por gols que não vieram para dissolver tamanha tensão. Foi um pouco melhor seguir trabalhando depois da vitória por quatro gols contra o time de Camarões, em 23 de junho. Mas bom mesmo nos pareceria poder sair imediatamente para comemorar e extravasar a alegria sentida. Vê-se, por esse relato, que a equipe de Pesquisa FAPESP, com raríssimas exceções, é formada por fanáticos torcedores e fanáticas torcedoras de futebol, se não sempre, pelo menos de quatro em quatro anos, nas copas. Daí por que, na reta final do fechamento da edição, vem-me a sensação de que trabalharemos depois de 13 de julho, por algum tempo, com uma estranha sensação de vazio no cotidiano da redação. Depois, a dinâmica dos dias e a plasticidade do cérebro farão seu trabalho de nos restituir a uma normalidade que não entretece jogos de futebol com entrevistas, textos, títulos, imagens, infográficos e manchas de páginas de revista. O cérebro, a propósito, era mesmo o meu desejado ponto de chegada nesta carta – a Copa era um inescapável começo de conversa –, em função da reportagem

de capa desta edição, elaborada por nosso editor de ciência, Ricardo Zorzetto. Trata-se do relato sobre o desenvolvimento de um equipamento por uma equipe de quase 40 pessoas, liderada pelo infatigável físico Sérgio Mascarenhas, 86 anos, que promete um caminho eficiente e não invasivo para o monitoramento dinâmico da pressão intracraniana e, com ele, talvez a abertura de uma via larga para a compreensão e o controle de condições patológicas que guardam aparentemente relação estreita com as variações dessa pressão. Na linha de frente dessas condições, os pesquisadores veem a pré-eclâmpsia, que atinge aproximadamente 10% dos 3 milhões de mulheres que engravidam no Brasil a cada ano e que ameaça tanto sua vida quanto a dos fetos que elas estão gestando. Mas registre-se que a pressão intracraniana é um parâmetro extremamente importante a ser considerado quando a pessoa sofre um trauma na cabeça ou apresenta outros problemas no sistema nervoso central, derivados, por exemplo, de um tumor ou de um AVC. E poder medi-la sem invasão, com a mesma facilidade com que se mede hoje a pressão arterial, é um sonho com que o sensor de pressão intracraniana, desenvolvido em São Carlos, acena. Vale muito a pena conferir os detalhes a partir da página 16, saber quantas instituições estão envolvidas nessa pesquisa e conhecer um pouco da motivação pessoal de Sérgio Mascarenhas para desenvolver o equipamento. Gostaria de destacar aqui várias outras reportagens, mas, dado o pequeno espaço que resta, vou me concentrar na recomendação à notável entrevista de Demi Getschko, elaborada por nosso editor de tecnologia, Marcos de Oliveira (página 24). Através da fala desse brilhante e amável engenheiro elétrico formado pela Escola Politécnica da USP, que se tornou o primeiro brasileiro a ter o nome incluído no Hall da Fama da Internet, é a própria história da montagem da rede mundial de computadores em nosso país, para a qual ele contribuiu muito desde os seus primórdios, que podemos acompanhar. É imperdível. Boa leitura! PESQUISA FAPESP 221 | 5


cartas

cartas@fapesp.br

fundação de amparo à pesquisa do estado de são Paulo Celso Lafer Presidente Eduardo Moacyr Krieger vice-Presidente Conselho Superior alejandro szanto de toledo, Celso Lafer, Eduardo Moacyr Krieger, fernando ferreira costa, Horácio Lafer Piva, joão grandino rodas, Maria José Soares Mendes Giannini, Marilza Vieira Cunha Rudge, José de Souza Martins, Pedro Luiz Barreiros Passos, Suely Vilela Sampaio, Yoshiaki Nakano Conselho Técnico-Administrativo José Arana Varela Diretor presidente Carlos Henrique de Brito Cruz Diretor Científico Joaquim J. de Camargo Engler Diretor Administrativo

issn 1519-8774

Conselho editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Marcelo Leite, Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani, Mônica Teixeira comitê científico Luiz Henrique Lopes dos Santos (Presidente), Adolpho José Melfi, Carlos Eduardo Negrão, Douglas Eduardo Zampieri, Eduardo Cesar Leão Marques, Francisco Antônio Bezerra Coutinho, Joaquim J. de Camargo Engler, José Arana Varela, José Roberto de França Arruda, José Roberto Postali Parra, Lucio Angnes, Luis Augusto Barbosa Cortez, Marcelo Knobel, Marie-Anne Van Sluys, Mário José Abdalla Saad, Marta Teresa da Silva Arretche, Paula Montero, Roberto Marcondes Cesar Júnior, Sérgio Luiz Monteiro Salles Filho, Sérgio Robles Reis Queiroz, Wagner do Amaral Caradori, Walter Colli Coordenador científico Luiz Henrique Lopes dos Santos Diretora de redação Mariluce Moura editor chefe Neldson Marcolin Editores Fabrício Marques (Política), Marcos de Oliveira (Tecnologia), Ricardo Zorzetto (Ciência); Carlos Fioravanti e Marcos Pivetta (Editores espe­ciais); Bruno de Pierro e Dinorah Ereno (Editores assistentes)

Fogo no cerrado

Na reportagem interessante de Maria Guimarães sobre alguns resultados da pesquisa de Giselda Durigan (“A origem do cerrado”, edição 219), diz-se que “a fauna (gado) e as queimadas são parte integrante do ecossistema”. E em outra citação da mesma pesquisadora se lê: “No Brasil vamos ter que aprender a usá-lo [o fogo] como ferramenta de manejo, agora que a lei prevê a prática para o bem do ecossistema”. Em outra reportagem (“Sem floresta, gasta-se mais”, mesma edição), José Galizia Tundisi parece contradizer essa prática. Dedico-me, há 40 anos, à preservação de uma área de 70 hectares de cerrado e minha experiência, acompanhada de especialistas, desaconselha o fogo e o pisoteio do gado. O sistema de captação de águas pluviais que mantenho tem dado incalculáveis benefícios para a recarga dos aquíferos. Seria importante que Giselda orientasse de forma mais clara onde, quando e como usar o fogo para o bem do ecossistema. Giovenardi Eugênio Brasília, DF

revisão Daniel Bonomo, Margô Negro arte Mayumi Okuyama (Editora), Ana Paula Campos (Editora de infografia), Maria Cecilia Felli e Alvaro Felippe Jr. (Assistente) fotógrafos Eduardo Cesar, Léo Ramos Mídias eletrônicas Fabrício Marques (Coordenador) Internet Pesquisa FAPESP online Maria Guimarães (Editora) Júlio César Barros (Editor assistente) Rodrigo de Oliveira Andrade (Repórter) Rádio Pesquisa Brasil Biancamaria Binazzi (Produtora)

Golpe de 1964

Niède Guidon

Parabéns à edição 220 da revista Pesquisa FAPESP e ao suplemento que enfoca o Prêmio Conrado Wessel, em especial a Niède Guidon, arqueóloga na serra da Capivara, em São Raimundo Nonato, no Piauí. As ilustrações e redação confrontando a posição de Walter Neves, pesquisador da Universidade de São Paulo (USP), sobre a datação dos instrumentos líticos lançam luzes e estão sugerindo novas hipóteses que enriquecem aquela grande arqueóloga brasileira. Francisco J. B. Sá Salvador, BA

A ilustração ao lado, da capa da edição 220 (“O velho mar de Minas Gerais”), de Sandro Castelli, baseou-se na xilo­­­­ gravura A grande onda de Kanagawa, criada pelo artista japonês Katsushika Hokusai (1760-1849).

Parabéns pelas reportagens sobre o golpe militar de 1964 (edição 218). Estão sensacionais. Enio Cardillo Vieira Belo Horizonte, MG

Colaboradores Alexandre Affonso, Ana Lima, Daniel Bueno, Daniela Lima, Evanildo da Silveira, Guilherme Lepca, Igor Zolnerkevic, João Paulo Pimenta, Juliana Sayuri, Mariana Coan, Maria Hirszman, Mauro de Barros, Nelson Provazi, Pedro Franz, Pedro Hamdan, Samuel Rodrigues, Valter Rodrigues, Yuri Vasconcelos, Zé Vicente

É proibida a reprodução total ou parcial de textos e fotos sem prévia autorização Para falar com a redação (11) 3087-4210 cartas@fapesp.br Para anunciar (11) 3087-4212 publicidade@fapesp.br Para assinar (11) 3087-4237 assinaturaspesquisa@fapesp.br Tiragem 44.500 exemplares IMPRESSão Plural Indústria Gráfica distribuição Dinap GESTÃO ADMINISTRATIVA INSTITUTO UNIEMP PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo

Para quem lê e assina Pesquisa FAPESP

Pesquisa FAPESP

mais atualizadas notícias

proporciona falar com

sobre pesquisa científica

um leitor qualificado,

e tecnológica nos vários

formador de

campos do conhecimento.

opinião e que decide.

11 3087-4237

Para anunciar 11 3087-4212 www.revistapesquisa.fapesp.br

6 | julho DE 2014

Para quem anuncia

traz, todo mês, as

Para assinar

assinaturaspesquisa@fapesp.br publicidade@fapesp.br

Nota da Redação

Cartas para esta revista devem ser enviadas para o e-mail cartas@fapesp.br ou para a rua Joaquim Antunes, 727, 10º andar - CEP 05415-012, Pinheiros, São Paulo-SP. As cartas poderão ser resumidas por motivo de espaço e clareza.


on-line

Nas redes

rodrigo lopes ferreira / ufla

w w w . r e v i s ta p e s q u i s a . f a p e s p. b r

Rebeca Lima Barboza dos Santos_

Exclusivo no site

Muito legal, não vejo a hora de chegarem às farmácias! (Prata

x Fêmeas com pênis e machos com vagina foram descobertos em insetos de cavernas brasileiras. São quatro espécies de pequenos animais alados descritas e estudadas por pesquisadores do Brasil, da Suíça e do Japão (Current Biology). O novo gênero, Neotrogla, foi localizado no norte de Minas Gerais, no Tocantins e na Bahia. A descoberta do biólogo Rodrigo Ferreira, da Universidade Federal de Lavras, representa o único caso conhecido de genitálias invertidas no reino animal. Ele acredita que ainda há espécies por encontrar. x A manipulação do solo para plantio de cana em áreas antes ocupadas por outros cultivos agrícolas não emite um excedente de carbono, de acordo com um trabalho realizado por pesquisadores do Brasil e dos Estados Unidos (Nature Climate Change). A emissão de carbono pela transformação de pastagens em canaviais, por sua vez, poderia ser compensada em dois a três anos após o plantio. “Agora temos certeza de que estamos entregando um combustível de baixa emissão de carbono”, diz Carlos Cerri, da Universidade de São Paulo (USP).

contra bactérias) Sandra Alvarez Guerrero Zerbini_ Interessante. Um pouco mais de nanotecnologia para vocês. (Nanopapiros de carbono) Carlos Elson Cunha_ Querendo entender a cabeça do ser humano, afinal, não sabemos de nada. (Entrevista com Francis Collins) Bruno Nunes_ Tem lógica mesmo, pois laranjas e tangerinas são mais Macho e fêmea de Neotrogla: posições e órgãos sexuais trocados

ou menos doces. (A identidade das frutas cítricas) Aloisio Eduardo Leon_ Um assunto com probabilidade de ser abordado

Rádio Doações de ex-alunos começam a ser capitalizadas por universidades brasileiras

tanto no Enem como no vestibular! (O último litoral de Minas) Ilka Biondi_ Excelente trabalho científico, em uma região tão importante da nossa Bahia.  (Reservatório de microrganismos) Maricilia Arruda_ Perda de importantes informações com a destruição do Nereus, veículo subaquático de pesquisas. (Submarino perdido)

Vídeo do mês Importantes para armazenar carbono, manguezais migram diante de alterações no nível do mar

Assista ao vídeo:

youtube.com/user/PesquisaFAPESP

PESQUISA FAPESP 221 | 7


Dados e projetos Temáticos e Jovem Pesquisador recentes Projetos contratados em maio e junho de 2014 temáticos  50 anos de feminismo (1965-2015): novos paradigmas, desafios futuros Pesquisadora responsável: Eva Alterman Blay Instituição: FFLCH/USP Processo: 2012/23065-8 Vigência: 01/04/2014 a 31/03/2017

 Desenvolvimento de sensores quânticos com átomos ultrafrios Pesquisador responsável: Philippe Wilhelm Courteille Instituição: Instituto de Física de São Carlos/USP Processo: 2013/04162-5 Vigência: 01/08/2014 a 31/07/2019  Papel da NAD(P)H oxidase nos mecanismos moleculares da fisiologia e patologia das células secretoras de insulina Pesquisador responsável: Angelo Rafael Carpinelli Instituição: Instituto de Ciências Biomédicas/USP Processo: 2013/08769-1 Vigência: 01/06/2014 a 31/05/2018  Estudo molecular e funcional de transportadores de membrana Pesquisador responsável: Gerhard Malnic Instituição: Instituto de Ciências Biomédicas/USP Processo: 2013/23087-4 Vigência: 01/05/2014 a 30/04/2018  Epidemiologia, avaliação de danos e controle de doenças da videira Pesquisadora responsável: Lilian Amorim Instituição: Escola Superior de Agricultura Luiz de Queiroz/USP Processo: 2013/24003-9 Vigência: 01/06/2014 a 31/05/2019  Modelagem da produção e das exigências nutricionais de aves e peixes Pesquisadora responsável: Nilva Kazue Sakomura Instituição: Faculdade de Ciências Agrárias e Veterinárias de Jaboticabal/ Unesp Processo: 2013/25761-4 Vigência: 01/06/2014 a 31/05/2019  Segurança e confiabilidade da informação: teoria e prática Pesquisador responsável: Marcelo Firer Instituição: Instituto de Matemática, Estatística e Computação Científica/ Unicamp Processo: 2013/25977-7 Vigência: 01/06/2014 a 31/05/2019  Diversidade e conservação dos anfíbios brasileiros Pesquisador responsável: Célio Fernando Baptista Haddad Instituição: Instituto de Biociências de Rio Claro/Unesp

8 | julho DE 2014

Processo: 2013/50741-7 Vigência: 01/04/2014 a 31/03/2019

 A origem e irradiação dos dinossauros no Gondwana (Neotriássico – Eojurássico) Pesquisador responsável: Max Cardoso Langer Instituição: Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto/USP Processo: 2014/03825-3 Vigência: 01/05/2014 a 30/04/2018  Utilização de células-tronco mesenquimais na interface do sistema nervoso central e periférico: reparo de lesões proximais Pesquisador responsável: Alexandre Leite Rodrigues de Oliveira Instituição: Instituto de Biologia/Unicamp Processo: 2014/06892-3 Vigência: 01/06/2014 a 31/05/2018

Jovem Pesquisador  Serotonina e controle respiratório em vertebrados Pesquisador responsável: Glauber dos Santos Ferreira da Silva Instituição: Faculdade de Ciências Agrárias e Veterinárias de Jaboticabal/Unesp Processo: 2013/17606-9 Vigência: 01/06/2014 a 31/05/2018

 Regulação do metabolismo da glicose pelo osso: ações da osteocalcina na resistência à insulina e inflamação em tecidos adiposo e hepático Pesquisadora responsável: Daniela Tomie Furuya Instituição: Instituto de Ciências Biomédicas/USP Processo: 2013/18841-1 Vigência: 01/06/2014 a 31/05/2017

 Análise funcional de genes de cana-de-açúcar em arroz transgênico e obtenção de cana com conteúdo de lignina modificado para a produção de etanol celulósico Pesquisadora responsável: Paula Macedo Nobile Instituição: Instituto Agronômico de Campinas/Saasp Processo: 2013/19214-0 Vigência: 01/06/2014 a 31/05/2017  Sistemas regionais ameríndios em transformação: o caso do Alto Xingu Pesquisador responsável: Antonio Roberto Guerreiro Júnior Instituição: Instituto de Filosofia e Ciências Humanas/Unicamp Processo: 2013/26676-0 Vigência: 01/07/2014 a 30/06/2018

Investimentos estaduais em P&D em 2012 Estados apoiam FAPs, institutos e universidades Unidades da Federação

Total (em milhões de R$)

% do total

Orçamento (em milhões de R$)

% do orçamento

Ensino superior (em milhões de R$)

Total

9.782,20

100,00

3.165,40

100,00

6.616,80

100

São Paulo

7.133,80

72,93

1.476,80

46,65

5.657,10

85,50

696,9

7,12

382,2

12,07

314,7

4,76

539

5,51

288

9,10

251

3,79

Minas Gerais

296,4

3,03

279

8,81

17,4

0,26

Rio de Janeiro Paraná

% de investimento no ensino superior

Santa Catarina

207,4

2,12

153,1

4,84

54,3

0,82

Bahia

192,1

1,96

66,3

2,09

125,8

1,90

Ceará

100,8

1,03

25,8

0,82

75

1,13

Rio Grande do Sul

89,2

0,91

89,2

2,82

0,00

Pernambuco

72,4

0,74

56,9

1,80

15,6

0,24

Pará

67,9

0,69

55

1,74

12,9

0,19

Amazonas

61,9

0,63

52,3

1,65

9,5

0,14

Goiás

59,4

0,61

55,6

1,76

3,8

0,06

Paraíba

57,8

0,59

23,2

0,73

34,5

0,52

Mato Grosso do Sul

39,7

0,41

30,8

0,97

8,9

0,13

Rio Grande do Norte

32,3

0,33

17,5

0,55

14,8

0,22

Distrito Federal

29,8

0,30

29,8

0,94

0,00

Maranhão

25,5

0,26

21,5

0,68

4

0,06

Espírito Santo

23,4

0,24

23,4

0,74

0,00

Mato Grosso

21,8

0,22

6,5

0,21

15,3

0,23

Alagoas

16,8

0,17

16,8

0,53

0,00 0,00

Sergipe

7,3

0,07

7,3

0,23

Piauí

2,7

0,03

2

0,06

0,7

0,01

Tocantins

2,6

0,03

2,6

0,08

0,00

Acre

1,8

0,02

1,8

0,06

0,00

Roraima

1,6

0,02

0,2

0,01

1,4

0,02

Amapá

1,4

0,01

1,4

0,04

0,00

Rondônia

0,4

0,00

0,4

0,01

0,00

Fontes: Rede de Indicadores Estaduais de Ciência, Tecnologia e Inovação, Ministério da Ciência, Tecnologia e Inovação


Boas práticas Pesquisadores da Irlanda terão que abrir suas anotações de laboratório para auditores externos e mostrar a eles como previnem casos de má conduta, de acordo com uma estratégia proposta pela principal agência de fomento à pesquisa básica do país. Mark Ferguson, diretor da Science Foundation Ireland (SFI), convidou empresas de consultoria independentes para fazer um inédito trabalho de auditoria. As empresas contratadas irão verificar se instituições financiadas pela SFI, incluindo as principais universidades da Irlanda, têm procedimentos adequados para relatar e investigar casos de má conduta científica, além de averiguar se os gestores têm seguido esses procedimentos em situações concretas e se as investigações foram feitas de forma satisfatória. Alguns projetos financiados pela agência, selecionados aleatoriamente, serão analisados de forma mais profunda. Os auditores irão avaliar como os dados experimentais foram anotados e analisados e poderão checar informações que lastrearam papers desses grupos. “Não quero parecer um big brother. Quero que seja algo construtivo e educativo”, disse Ferguson à revista Nature. “A ideia é encontrar erros e propagar boas práticas. Nosso objetivo comum é assegurar que fazemos o melhor com o nosso dinheiro.” O anúncio foi recebido com reservas por setores da comunidade científica irlandesa. Duvida-se, por exemplo, que os auditores tenham conhecimento científico suficiente para avaliar algo além de aspectos meramente formais da pesquisa. Para John Ioannidis, professor de metodologia científica da Universidade Stanford, há o risco

de que a checagem seja superficial. “É uma ideia interessante, mas duvido que a amostra de projetos auditados seja grande o suficiente para fazer alguma diferença”, afirmou à Nature. Dias antes do anúncio, foi lançada a Declaração da Política Nacional para Assegurar a Integridade da Pesquisa na Irlanda, assinada pelas principais instituições de pesquisa e agências de fomento do país, que segue diretrizes semelhantes às adotadas pela União Europeia. O documento enumera quatro compromissos. O primeiro é com a promoção de padrões elevados de integridade em todas as etapas da pesquisa. O segundo, voltado para a educação, propõe estimular uma cultura de integridade no ambiente acadêmico a fim de reforçar a formação dos futuros pesquisadores. O terceiro estabelece o engajamento de todas as instituições signatárias

daniel bueno

Auditoria externa contra má conduta

em trabalhar de forma conjunta e coordenada em favor das boas práticas. O último determina a adoção de processos justos e transparentes para tratar alegações de má conduta. Esses quatro compromissos estão incluídos no Código de Boas Práticas Científicas da FAPESP, lançado em 2011.

Fraudador reabilitado Causou constrangimento no Reino Unido a descoberta de que um dos premiados pelo Parlamento inglês na tradicional lista de homenageados no aniversário da rainha Elizabeth II é um médico que chegou a perder seu registro profissional em 2002 e foi acusado de fraudar um artigo científico. Trata-se do cirurgião Anjan Kumar Banerjee, 54 anos, que trabalha atualmente num hospital em Bedford, Leste da Inglaterra, e é diretor de uma empresa de consultoria em ciências da vida. Em 2000, foi considerado culpado por falsificar um artigo científico publicado em 1990. Também perdeu o registro médico em 2002, acusado de mentir para pacientes sobre o

tempo de espera de tratamentos, encaminhando-os para serviços privados, e de cobrar por tratamentos não realizados. Banerjee recuperou o registro médico em 2007. O comitê ligado ao gabinete do premiê britânico, responsável pela premiação, alegou não ter sido informado sobre o passado de Banerjee, indicado pelos serviços prestados nos hospitais em que vem trabalhando. Ao jornal The Independent, Banerjee disse que lamenta os atos que cometeu e que aprendeu com essas experiências. Ele alega ter cumprido um rigoroso programa de reabilitação na carreira. “Todos os hospitais em que trabalhei desde 2007 foram informados sobre o meu passado”, afirmou. PESQUISA FAPESP 221 | 9


Estratégias Telescópio recebe recursos

1

Pesquisa premiada nos EUA

Marcelle Soares-Santos: contribuição destacada

O Observatório

parceria com o Centro

Estratosférico de

Aeroespacial Alemão

Astronomia

(DLR), devido aos altos

Infravermelha (Sofia,

custos operacionais.

na sigla em inglês),

O orçamento inicial do

da agência espacial

programa previa gastos

norte-americana (Nasa),

de US$ 360 milhões,

recebeu um sopro de

mas até o lançamento

vida. No mês passado,

os gastos já haviam

o Senado dos Estados

ultrapassado US$ 1 bilhão.

Unidos votou a favor da

O Sofia fez seu primeiro

destinação de US$ 87

voo em 2010, mas só

milhões ao observatório

agora está passando

em 2015. Maior

à fase operacional.

telescópio voador do

Outro fato que animou

mundo, o Sofia está

os pesquisadores

instalado num Boeing

envolvidos no programa

747 adaptado para

foi o início das operações

A astrônoma brasileira

“Eu contribuí para a

observar o Universo em

do Echelon-Cross-

Marcelle Soares-Santos

construção e instalação

voos de cerca de 12 mil

-Echelle Spectrograph

recebeu o Prêmio

da câmera do DES,

metros de altitude.

(Exes), um espectrógrafo

Alvin Tollestrup 2014,

a DECam”, diz Marcelle,

A proposta ainda precisa

acoplado ao telescópio.

concedido pela

referindo-se à câmera,

ser confirmada

“A combinação da alta

Associação de

peça-chave do projeto,

pela Câmara dos

resolução espectral

Universidades de

em funcionamento

Representantes. Em

do Exes e o acesso do

Pesquisa dos Estados

desde 2012 no

março, a Nasa havia

Sofia à radiação

Unidos a trabalhos

telescópio Blanco,

cogitado cancelar o

infravermelha do espaço

de destaque feitos

localizado no Cerro

projeto, fruto de uma

criam condições sem

por pós-doutorandos

Tololo Inter-American

precedentes para estudar

no Fermi National

Observatory, no Chile.

objetos celestes em

Accelerator Laboratory

Sua pesquisa também

comprimentos de

(Fermilab), laboratório

busca contribuir para

onda que não podem

norte-americano de

esclarecer a questão da

física de partículas de

energia escura, forma

altas energias. Doutora

hipotética de energia

em astronomia pela

que estaria distribuída

Universidade de

por todo o espaço.

São Paulo, Marcelle está

“Desenvolvi um

no Fermilab desde 2010

método para detectar

e foi reconhecida por

aglomerados de galáxias

suas contribuições

e uso esse método

ao estudo da energia

para estudo da energia

escura. Sua pesquisa

escura”, explica.

de pós-doutorado se

“Marcelle trabalha com

concentra no projeto

dados para desenvolver

Dark Energy Survey

novas maneiras de

(DES), cujo objetivo é

entender a formação

observar 300 milhões de

do universo”, disse

galáxias e usá-las para

Brenna Flaugher, chefe

determinar a evolução

do departamento de

da expansão do Universo.

astrofísica do Fermilab.

10 | julho DE 2014

ser acessados a partir Sofia: observatório instalado num Boeing 747 adaptado

2

de outros telescópios”, diz Pamela Marcum, pesquisadora da Nasa.


Desafios da internet do futuro A FAPESP e a Intel, por meio de seu Uni-

e qualquer outro tipo de dispositivo ca-

versity Research Office, anunciaram uma

paz de se comunicar via internet, com-

nova chamada de propostas no âmbito

partilhando informações e interagindo

do acordo de cooperação entre as insti-

com outros dispositivos. Espera-se que

tuições. Pesquisadores vinculados a

o uso desses dispositivos cresça, criando

instituições de ensino superior e de pes-

novos desafios de pesquisa, principal-

re. A Intel e a FAPESP destinarão um

quisa no estado de São Paulo podem

mente nos campos da criptografia e da

total de US$ 200 mil aos projetos sele-

submeter propostas sobre segurança

proteção de informações. As propostas

cionados, que poderão ter até dois anos

para dispositivos do tipo Internet of

devem ter como foco um ou mais dos

de duração. As propostas serão recebidas

Things (IoT) – termo que designa a futu-

seguintes vetores de pesquisa: cripto-

até o dia 29 de agosto. A chamada está

ra geração de eletroeletrônicos, carros

grafia, comunicação de dados e softwa-

disponível em www.fapesp.br/8701.

Trajetória reconhecida

Lafer recebe honoris causa O presidente da FAPESP,

Indústria e Comércio.

Professor titular do

Celso Lafer, recebeu no

Lafer destacou em

Departamento de

dia 27 de maio o título de

sua fala no evento os

Economia, Administração

doutor honoris causa

valores de pluralismo e

e Sociologia da Escola

da Universidade de Haifa,

tolerância que marcam

Superior de Agricultura

em Israel, em cerimônia

a Universidade de Haifa,

Luiz de Queiroz (Esalq)

realizada no campus

bem como sua imagem

da Universidade de

da instituição. “Este

de centro de ensino

São Paulo (USP) e

doutorado honoris causa

e pesquisa jovem e

reflete a valorização,

dinâmico. Outras sete

pela Universidade de

personalidades também

Haifa, de aspectos de

receberam o honoris

minha carreira ligados

causa de Haifa: o

à atividade acadêmica,

ex-presidente da África

diretor administrativo

3

fotos 1 fnal 2 nasa / carla thomas  3 arquivo iac  4 Univ. de Haifa  ilustraçãO daniel bueno

da FAPESP, Joaquim

O professor Engler recebe Prêmio IAC: Personalidade da Pesquisa

José de Camargo Engler

no IAC e pude conhecer

recebeu o prêmio

a qualidade do trabalho

Personalidade da

lá desenvolvido.” Na

Pesquisa, concedido pelo

categoria Pesquisador,

inclusive na presidência

do Sul e Prêmio Nobel da

Instituto Agronômico

o agraciado foi Maurilo

da FAPESP, e à atividade

Paz Frederik Willem de

(IAC), em Campinas. A

Terra, do Centro de

política, especialmente

Klerk, a filósofa francesa

entrega do Prêmio IAC

Frutas do IAC. Na

no tocante às relações

Julia Kristeva, a filantropa

ocorreu na comemoração

categoria Servidor, a

internacionais do Brasil

britânica Lady Irene

do aniversário de

homenageada foi Valéria

na América Latina e

Hatter, o dramaturgo e

127 anos do IAC, no

Garcia, do Centro de

com Israel”, disse Lafer,

ator israelense Chaim

dia 26 de junho. “Essa

Citricultura Sylvio Moreira

que é professor titular

Topol, o professor emérito

premiação muito me

do IAC. O empresário

aposentado da Faculdade

da Universidade de

honra, principalmente

Dorival Finotti foi

de Direito da USP e foi

Cambridge Stefan Reif,

pelo fato de o IAC ser

agraciado na categoria

ministro das Relações

o pedagogo suíço Ernst

uma instituição dedicada

Produtor Rural. A

Exteriores e do

Strauss e o diplomata

à pesquisa no Brasil

medalha Franz Wilhelm

Desenvolvimento,

israelense Uri Lubrani.

mais do que centenária,

Dafert foi oferecida ao

No dia 14 de julho,

com grandes trabalhos

Centro de Engenharia e

Lafer receberá o título

realizados e renome

Automação do IAC, ao

de doutor honoris

internacional”, disse

Ensaio de Proficiência IAC

causa concedido pela

Engler à Agência FAPESP.

para Laboratórios de

Universidade de

“O IAC foi também onde

Análise de Solo para

Birmingham, no Reino

realizei minhas primeiras

Fins Agrícolas, ao Centro

atividades profissionais,

Integrado de Informações

quando ainda era

Agrometeorológicas

estudante de agronomia

(Ciiagro), ao

na Esalq. Entre 1961 e

Programa Cana IAC

1963, realizei estágios

e à Pós-graduação IAC.

Unido. A FAPESP mantém Celso Lafer, na Universidade de Haifa: homenageado com outras sete personalidades

acordos de cooperação com as universidades de Birmingham e de Haifa, assinados, respectivamente, 4

em 2011 e 2013. PESQUISA FAPESP 221 | 11


Tecnociência Para reverter a anemia Em testes com uma

por acumular proteínas

droga experimental, uma

defeituosas que formam

equipe internacional

a hemoglobina”, explica

coordenada pelo biólogo

Moura, pesquisador do

brasileiro Ivan Cruz

Instituto Nacional de

Moura e pelo médico

Saúde e Pesquisas

francês Olivier Hermine

Médicas (Inserm)

demonstrou ser possível

da França. Usando o

controlar e até reverter o

composto experimental

sintoma mais comum e

sotatercept, inicialmente

debilitante da

desenvolvido para

talassemia, uma doença

tratar a osteoporose,

genética que não tem

os pesquisadores

cura e exige transfusões

conseguiram aumentar

sanguíneas por toda a

o número de células

vida. A causa da

precursoras que

talassemia são defeitos

sobreviviam à fase crítica

O primeiro nanossatélite

Centro Regional Sul do

nos genes que guardam

e se tornavam hemácias

brasileiro está desde

Instituto Nacional de

a receita para a

maduras. O brasileiro

19 de junho enviando

Pesquisas Espaciais

produção de uma das

Thiago Maciel e o francês

do espaço dados sobre a

(Inpe) e da Universidade

duas proteínas que

Michael Dussiot

sua posição na trajetória

Federal de Santa Maria

formam a hemoglobina,

testaram o composto

em volta da Terra a 600

(UFSM), no Rio Grande

molécula que transporta

em camundongos

quilômetros de altitude.

do Sul. O cubesat

o oxigênio e o gás

geneticamente

Com o nome de

brasileiro tem como

carbônico no sangue.

modificados para

NanosatC-BR1, o satélite

principal missão

Alterações nesses

apresentar sintomas

com menos de um quilo

científica a utilização

genes levam à produção

de talassemia e obtiveram

de peso é do tipo

de um sensor chamado

de hemoglobinas

resultados animadores

cubesat, em forma de

magnômetro para

defeituosas e à morte

(Nature Medicine, abril).

cubo. Foi lançado pelo

estudo do campo

precoce das hemácias,

Como o composto já

foguete russo Dnepr,

magnético terrestre e

as células que a abrigam.

havia sido dado a

da base de Yasny,

sua interação com parte

A morte precoce dessas

mulheres com

junto com mais 30

da radiação do Sol e das

células leva à anemia,

osteoporose, foi possível

artefatos semelhantes

estrelas que pode afetar

uma redução importante

iniciar em seguida os

de vários países.

as comunicações, os

no número de hemácias

testes em humanos.

O primeiro cubesat do

sinais de GPS, além das

em circulação, que pode

Cerca de 20 pessoas com

país foi desenvolvido

redes de distribuição de

afetar o desenvolvimento

talassemia haviam sido

por pesquisadores do

energia. O NanosatC-BR1

e causar problemas

tratadas até o fim de abril.

cardíacos. Os

Oitenta por cento

pesquisadores

das que receberam doses

circuitos integrados

verificaram que, em

terapêuticas melhoraram

projetados no Brasil

experimentos com

da anemia. “O composto

para uso espacial

roedores e testes iniciais

não combate a causa

(ver Pesquisa FAPESP

com pessoas com

da doença, mas corrige o

nº 219). Além de

talassemia, foi possível

problema”, diz Moura.

servir de instrumento

aumentar a taxa de

“Por ora, podemos dizer

para aprendizado de

amadurecimento das

que é promissor.” Ele

estudantes, os

hemácias e reverter a

acredita que, se funcionar

nanossatélites estão

anemia. “Na talassemia,

contra a talassemia,

se tornando uma opção

as células precursoras

talvez seja útil contra

das hemácias morrem

outras formas de anemia.

12 | julho DE 2014

1

Hemácias vistas ao microscópio eletrônico: morte precoce na talassemia

Ilustração do NanosatC-BR1: missão científica, instrumento de ensino e opção barata para coleta de dados

Nanossatélite no espaço

também vai testar no espaço os dois primeiros

barata para coletar 2

dados espaciais.


Bashir, havia

Estetoscópio do pulmão

apresentado “biorrobôs”

fotos 1 CDC / Janice Haney Carr 2 inpe  3 sae  ilustraçãO daniel bueno

elaborados a partir de Um novo modelo

eletrocardiograma.

células cardíacas

de estetoscópio

Por meio de sensores

extraídas de ratos. No

desenvolvido por

de radiofrequência,

entanto, como as células

pesquisadores da

ele detecta pequenas

do coração se contraem

Universidade do Havaí,

alterações na quantidade

constantemente, os

nos Estados Unidos,

de água nos pulmões,

pesquisadores tinham

poderá no futuro auxiliar

monitorando, ao mesmo

dificuldade de controlar

médicos na detecção

tempo, a frequência

os movimentos do

precoce de acúmulo

cardíaca e respiratória

robô, que se locomovia

de água nos pulmões,

do indivíduo. Sob

por conta própria.

uma consequência

a coordenação do

Dessa vez, as

direta da insuficiência

pesquisador Magdy

cardíaca – a incapacidade

Iskander, o projeto

do coração de bombear

pretende também usar

o sangue em volumes

a nova tecnologia na

suficientes para os

obtenção do diagnóstico

Engenheiros da

que são acionadas

órgãos do corpo.

precoce de outras

Universidade de Illinois,

por pulso elétrico.

A nova tecnologia

doenças, como edema

Estados Unidos,

Os pesquisadores

recebeu financiamento

e enfisema pulmonar,

desenvolveram uma

querem integrar

da National Science

além de lesões

nova classe de robôs de

princípios da engenharia

Foundation (NSF)

pulmonares agudas.

menos de um centímetro

com a biologia

e consiste num

A insuficiência cardíaca

a partir de células

no desenvolvimento

equipamento que se fixa

afeta cerca de 5 milhões

musculares que podem

de tecnologias com

à superfície do corpo

de pessoas nos Estados

ser controladas por

aplicação médica.

do paciente da mesma

Unidos, gerando um gasto

uma corrente elétrica.

A técnica pode ser

forma que os sensores

total de US$ 32 milhões

O trabalho foi publicado

usada, por exemplo,

usados em exames de

com serviços de saúde.

em junho na versão

na fabricação de um

on-line da revista PNAS.

dispositivo que só

As pequenas máquinas

funciona quando uma

biológicas foram

certa substância química

fabricadas em uma

é detectada ou por meio

impressora 3D utilizando

de um determinado

hidrogel – um polímero

estímulo. Na forma de

com consistência similar

um sensor autônomo,

à de uma gelatina, que

seria capaz de perceber

retém água em sua

a presença de uma

estrutura – e células

toxina no organismo,

vivas. Anteriormente, o

mover-se até ela e

grupo de pesquisadores,

liberar algum agente

liderado por Rashid

para neutralizá-la.

Sensor autônomo

Carro da equipe E-Racing, da Unicamp, ganha competição nos Estados Unidos pela segunda vez

minúsculas máquinas são alimentadas por uma faixa de células do músculo esquelético,

3

Bicampeonato em fórmula de carros elétricos A equipe E-Racing, da Universidade Es-

ricanos, da Alemanha, Itália, Inglaterra e

Unicamp, a equipe E-Racing conquistou

tadual de Campinas (Unicamp), conquis-

Austrália, divididos em 20 equipes. Os

a oportunidade de participar da Fórmula

tou em junho o bicampeonato nos Estados

participantes passam por provas em que

SAE Lincoln ao ficar em primeiro lugar na

Unidos em uma prova de carros elétricos

são avaliados itens como projeto, esta-

categoria na Fórmula SAE Brasil-Petrobras

desenvolvidos por estudantes universitá-

bilidade, aceleração e eficiência energé-

realizada em novembro de 2013, em Pi-

rios. A competição, a Fórmula SAE Lincoln,

tica. Os carros são tracionados por mo-

racicaba (SP). Na categoria de motores

realizada na cidade de mesmo nome no

tores elétricos e baterias de até 600 volts.

a gasolina, a vencedora no Brasil também

estado de Nebraska, é promovida pela

Formada por estudantes das faculdades

foi uma equipe da Unicamp que, em Lin-

Sociedade dos Engenheiros da Mobilida-

de Engenharia Mecânica, Elétrica e Com-

coln, com problemas de tração, ficou em

de (SAE), com participantes norte-ame-

putação e do Instituto de Física da

44º lugar entre as 80 competidoras.

PESQUISA FAPESP 221 | 13


Novidade em ultrassom

Eletrodos em forma de filamentos

A resolução das imagens médicas produzidas por

Pesquisadores da Bahia conseguiram

ultrassonografias pode,

produzir tubos microscópicos de ouro

no futuro, ser mil vezes

usando como molde espécies de fungo

melhor. Isso se for posta

que crescem em plantas da lagoa do

em prática a tecnologia

Abaeté, área de proteção ambiental

demonstrada por

ameaçada pela expansão urbana em

pesquisadores do

Salvador. Com permissão das autorida-

Laboratório Nacional

des ambientais, a equipe do químico

3

Marcos Malta, da Universidade Federal da Bahia, coletou caules, folhas e raízes de plantas do Abaeté e, em laboratório,

1

Lawrence Berkeley, nos Estados Unidos, para produzir, detectar e

Molde natural: microtubos de ouro produzidos ao redor de filamentos de fungos

controlar ondas sonoras

isolou três espécies de fungos filamen-

de frequência ultra-alta

tosos que cresciam no interior dos ve-

eliminar a parte orgânica por calcinação.

em sistemas na escala

getais. Em seguida, os fungos foram

O resultado foram tubos ocos e porosos

nanométrica. A equipe

cultivados por dois meses em soluções

com alguns micrômetros de extensão

capitaneada por

contendo diferen­tes concentrações de

que imitam a forma dos fungos (Bioma-

Xiang Zhang produziu

um sal – o citrato, usado como fonte de

terials Science, março de 2014). O fato

nanoestruturas de ouro

nutriente – e nano­partículas de ouro. Por

de os tubos serem ocos e porosos au-

em forma de cruz com

mecanismos ainda não entendidos, as

menta a superfície de contato, algo im-

35 nanômetros (nm)

nanopartículas de ouro aderem à super-

portante em reações eletroquímicas em

de espessura, com as

fície externa da parede celular do fungo,

que o ouro funciona como eletrodo de

dimensões horizontal e

criando uma carapaça. Ao final do pe-

alta área superficial. “Essa estratégia”,

vertical de 120 e 90 nm,

ríodo, os pesquisadores submeteram os

acredita Malta, “pode reduzir a quanti-

respectivamente. Por

fungos a uma secagem que preserva a

dade de ouro necessária para produzir

meio da ação de um

forma desses microrganismos, antes de

esse tipo de eletrodo”.

laser que oscila nos braços das cruzes, o sistema gera ondas de energia vibracional

Cálculos complexos feitos com a luz

(Nature Communications, junho). A operação do

Computadores quânticos

teóricos Ernesto Galvão

caminhos entrelaçados

novo sistema ocorre

capazes de executar

e Daniel Brod, do

(ver Pesquisa Fapesp

com frequência de

tarefas variadas ainda

Instituto de Física da

nº 209). Agora em

10 gigahertz (10 bilhões

estão muito longe de

Universidade Federal

junho a revista Nature

de ciclos por segundo).

se tornarem realidade.

Fluminense, em Niterói,

Photonics publicou novos

Em comparação, os

É bem possível, porém,

e pelas equipes de físicos

resultados da equipe,

que até a próxima década

experimentais lideradas

com cálculos mais

sejam construídos

por Paolo Mataloni

complexos feitos por um

computadores quânticos

e Fabio Sciarrino,

chip maior, usando até

com funções limitadas,

da Universidade

três fótons percorrendo

mas que ainda assim

La Sapienza de Roma,

um circuito de nove e

usem as propriedades

e Roberto Osellame,

outro de 13 caminhos.

quânticas da luz para

do Instituto de Fotônica

Os físicos também

executarem em poucos

e Nanotecnologia,

utilizaram um novo teste

dias cálculos complexos

em Milão. A equipe

estatístico para verificar

que computadores

demonstrou, em 2012,

os resultados de seus

normais demorariam

como realizar cálculos

cálculos. Quanto mais

anos para concluir.

matemáticos usando

fótons e caminhos no

Esse é o objetivo a

um chip de vidro em que

circuito, mais difícil fica

longo prazo de uma

três partículas de luz,

verificar os cálculos

colaboração entre

os fótons, percorrem

realizados pelo chip

brasileiros e italianos

simultaneamente

com computadores

formada pelos físicos

um circuito de cinco

convencionais.

14 | julho DE 2014

ultrassons médicos Cruzes nanométricas de ouro recebem lasers e geram ondas sonoras

atuais geram frequência de cerca de 20 megahertz (20 milhões de ciclos por segundo).

2


Prejuízos climáticos Em 2012, o furacão

globais. A nova

Sandy destruiu

estimativa foi feita com

ou danificou 650 mil

o propósito de ajudar

casas e causou um

proprietários de casas

prejuízo de US$ 50

litorâneas, investidores

bilhões apenas

e planejadores urbanos

no estado norte-

norte-americanos

-americano de Nova

a programar melhor

Jersey. Situações desse

seus investimentos.

tipo devem continuar

Coordenado por Robert

nas regiões costeiras

Kopp, da Universidade

dos Estados Unidos.

Rutgers, esse estudo

A elevação do nível

indicou que o nível do

do mar deve causar

mar na cidade de Nova

prejuízos estimados

York deve subir de 0,7 a

em US$ 106 bilhões até

1,4 metro nos próximos

Foi uma mordida e

de ganchos microscópicos

2050 e em US$ 507

100 anos, mais do que

tanto. Durante vinte

que capturam crustáceos

bilhões até 2100 às

o esperado como média

anos apenas sete

e outros organismos

propriedades costeiras

mundial. Mesmo uma

espécies de esponjas

pequenos, e em algumas

norte-americanas

elevação moderada do

carnívoras tinham sido

horas as células das

(Earth’s Future, junho).

nível do mar no estado

identificadas, mas agora

esponjas começam a

A previsão é

da Flórida resultaria

pesquisadores dos

digerir a caça. Depois de

considerada a primeira

em prejuízos de US$ 23

Estados Unidos e do

alguns dias, resta apenas

a estimar os possíveis

bilhões, na forma de

Canadá, de uma só vez,

uma carcaça vazia.

prejuízos em nível local

casas cobertas pelas

apresentaram quatro

Biólogos do Instituto

e regional nos Estados

águas, até 2050. Há 1%

novas espécies desses

de Pesquisa do Aquário

Unidos causados pelas

de risco de que as

seres bizarros, que

da Baía de Monterrey

mudanças do clima do

propriedades urbanas

vivem no fundo do mar

(MBARI), na Califórnia,

planeta. Os cálculos

nesse estado, avaliadas

na costa do Pacífico

Estados Unidos, filmaram

anteriores eram mais

em US$ 681 bilhões,

(Zootaxa, abril). Os

e coletaram as esponjas

genéricos e previam os

sejam cobertas pela

filamentos que cobrem

no fundo do mar.

impactos econômicos

água até o fim do século.

as esponjas consistem

Depois, em laboratório,

A esponja Asbestopluma monticola, coletada em um vulcão extinto da costa da Califórnia

3

Mais esponjas carnívoras

Passagem desastrosa: danos na área costeira de Nova Jersey deixados pelo furacão Sandy

encontraram numerosos crustáceos em estágios variados de decomposição na cabeleira de duas espécies, Cladorhiza

fotos 1 Marcos Malta / UFBA 2 LNLB  3 MBARI  4 US Air Force / Mark C. Olsen 

caillieti e Cladorhiza evae. Normalmente as esponjas se alimentam filtrando bactérias e outros microrganismos da água do mar. Não é o caso das novas espécies, algumas com espículas, como a Asbestopluma rickettsi, encontrada entre comunidades de moluscos e vermes no sul da Califórnia, e outras sem, como a Asbestopluma monticola, coletada pela primeira vez em um vulcão extinto da costa 4

da Califórnia. PESQUISA FAPESP 221 | 15


capa

16 | julho DE 2014


Sensor permite monitorar de modo não invasivo alterações no cérebro causadas por traumas e pela gestação Ricardo Zorzetto, de São Carlos e Ribeirão Preto, SP

ilustração  mariana coan

P

assava um pouco das nove horas quando a neurocirurgiã Luiza da Silva Lopes acomodou-se em um banco de madeira e iniciou a primeira das três operações que faria na manhã daquela sexta feira, 16 de maio, em uma pequena sala do Laboratório de Neurocirurgia Pediátrica da Universidade de São Paulo (USP) em Ribeirão Preto. Com o bisturi em sua mão direita, realizou uma incisão firme, de pouco mais de um centímetro, no couro cabeludo da rata anestesiada e afastou a pele, os músculos e uma membrana fibrosa que recobre os ossos do crânio. Em menos de cinco minutos a área estava pronta para o biólogo Danilo Cardim instalar um pequeno sensor na superfície do crânio do roedor. Pelos 20 minutos seguintes, Danilo registrou as oscilações da pressão no interior do crânio do animal usando um aparelho portátil, atualmente em fase de aprimoramento, desenvolvido pelo grupo do qual faz parte na Universidade de São Paulo em São Carlos. Hoje estão em funcionamento cinco exemplares do protótipo, alguns sendo usados em testes experimentais em seres humanos. Um pouco mais tarde naquela manhã, Luiza repetiu o procedimento cirúrgico em outras duas ratas, desta vez prenhes, para que Danilo realizasse novas medições. Aqueles dados e outros coletados nas semanas anteriores seriam depois encaminhados para o físico-médico Brenno Cabella analisar usando uma série de ferramentas matemáticas sofisticadas. O objetivo do grupo é verificar se a pressão a que o cérebro está submetido no interior do crânio sofre alterações durante a gestação. Caso a suspeita se confirme e a pressão apresente variações anormais, o trio, parte de uma equipe de quase 40 pessoas coordenada por um pesquisador incansável, o físico Sérgio Mascarenhas, de 86 anos, terá conseguido mais um indício de que está no caminho certo para tentar identificar precocemente – e, quem sabe, tratar de forma mais adequada – o problema de saúde que mais mata mulheres durante a gestação: a pré-eclâmpsia. Marcada pelo aumento da pressão arterial após a 22a semana da gravidez, a pré-eclâmpsia atinge PESQUISA FAPESP 221 | 17


Fita elástica

Alavanca metálica

Sensor fixado sobre a pele registra variações da pressão no interior do crânio

3

2 Crânio Cérebro

Cérebro

1

Extensômetros

Crânio

Pino

Sensor não invasivo

3

1

detecção

transformação

sobre a pele oscila com

As oscilações movem

os movimentos dos Cabo de conexão com o monitor

transmissão

2

Um pino que se apoia

uma alavanca à qual

ossos da cabeça,

estão presos sensores

resultado de variações na pressão intracraniana

(extensômetros) que transformam a deformação

Um cabo elétrico conduz os sinais captados pelo sensor não invasivo para um monitor

em sinais elétricos

Fonte  Gustavo frigieri vilela / usp-rp

aproximadamente 10% dos 3 milhões de brasileiras que engravidam a cada ano e ameaça tanto a vida da mulher como a do feto. Nas grávidas ela pode desencadear crises convulsivas e até levar ao coma, enquanto o feto corre o risco de ficar sem nutrientes e oxigênio pelo descolamento da placenta ou de nascer prematuramente. “Essa é uma doença com ônus elevado para a sociedade: é a maior matadora de gestantes e de crianças no período perinatal”, afirma o obstetra Geraldo Duarte, chefe do Serviço de Alto Risco do Departamento de Ginecologia e Obstetrícia da Faculdade de Medicina da USP em Ribeirão Preto e colaborador de Mascarenhas nesse projeto. “A ciência ainda deve muito nessa área porque sabemos pouco a respeito dessa doença.”

E

nquanto aguardam o resultado dos experimentos com os roedores, Duarte e o obstetra Ricardo Cavalli planejam usar a segunda e mais recente versão do sensor de pressão intracraniana para iniciar o monitoramento das gestantes atendidas no Hospital das Clínicas da USP em Ribeirão. Totalmente não invasiva, a nova versão do sensor vem sendo desenvolvida e aperfeiçoada pela equipe de Mascarenhas na USP em São Carlos ao longo dos últimos quatro anos, com financiamento da FAPESP e do Ministério da Saúde. Diferentemente do sensor usado no teste com ratos, essa nova versão foi projetada para ser usada em seres humanos sem a necessidade de intervenção cirúrgica e, em abril deste ano, foi testada em um pequeno grupo de pacientes da unidade de cuidados neurocríticos 18 | julho DE 2014

4 amplificação

No monitor, os sinais são amplificados e decodificados, gerando gráficos que mostram a evolução da pressão intracraniana

do Hospital de São João, ligado à Universidade do Porto, em Portugal. Feita de material plástico rígido e um pouco maior que uma caixa de fósforos, a nova versão do sensor é posicionada sobre a pele e o cabelo da pessoa acordada. Durante o monitoramento permanece presa por uma faixa elástica semelhante à usada pelos tenistas, que causa apenas uma leve pressão sobre o crânio, como a que sente quem usa um chapéu um pouco apertado. A nova versão do sensor funciona com base em um princípio bastante simples. Um pino que se apoia sobre a pele oscila com os movimentos microscópicos dos ossos da cabeça, resultado de variações na pressão intracraniana determinada em grande parte pela chegada de um maior volume de sangue ao cérebro e aos outros órgãos do encéfalo a cada batimento do coração. O deslocamento do pino move uma alavanca à qual estão presos sensores de deformação (extensômetros), que transformam a movimentação sutil em sinais elétricos, transmitidos para um equipamento que

infográfico ana paula campos  ilustraçãO mariana coan

Sem cortes nem sangue


os amplifica e exibe na forma de um gráfico em um monitor (ver infográficos ao lado e na página seguinte). O sensor atual representa um avanço importante em relação ao modelo anterior, embora o princípio de funcionamento seja o mesmo: ambos medem oscilações no volume craniano. O primeiro sensor, usado nos experimentos com animais (ratos, coelhos e ovelhas) e também em testes iniciais com pacientes internados em unidades de terapia intensiva, exige um corte no couro cabeludo e a instalação do sensor na superfície do crânio. Começou a ser projetado em 2007 por Mascarenhas e foi desenvolvido pelo farmacêutico Gustavo Frigieri Vilela, na época aluno de doutorado de Mascarenhas em São Carlos. Ambos buscavam uma forma menos agressiva e invasiva de monitorar a pressão intracraniana, um dos parâmetros mais importantes que os médicos analisam em pessoas que sofrem traumas na cabeça e outros problemas no sistema nervoso central. Os valores da pressão intracraniana permitem saber se o cérebro e os outros órgãos do encéfalo estão recebendo a quantidade adequada de nutrientes e oxigênio e se as toxinas estão sendo eliminadas no ritmo que deveriam. Também permitem ter uma ideia de como o sistema nervoso central reage a condições anormais, como lesões provocadas por traumas na cabeça, que provocam edema; alterações no suprimento de sangue que ocorrem nos acidentes vasculares cerebrais (AVC) por isquemia ou hemorragia; desenvolvimento de tumores e distúrbios na circulação do líquido cefalorraquidiano ou liquor, que banha o encéfalo e a medula espinhal.

O

fotos  eduardo cesar

método mais adotado de monitoramento da pressão intracraniana é considerado um tanto invasivo. Exige a abertura de um furo no crânio por meio da qual o neurocirurgião insere um sensor. O mais superficial fica próximo a uma das membranas que envolvem e protegem o cérebro. Já o mais profundo chega a penetrar cerca de oito centímetros, causando pequenas lesões no tecido cerebral e aumentando o risco de sangramento e infecções. “Em média, infecções e sangramentos ocorrem em 3% dos casos, o que é um risco aceitável do ponto de vis-

O sensor minimamente invasivo (no alto) e o não invasivo (ao lado): ambos usam o extensômetro

ta cirúrgico, mas piora o prognóstico de um doente já grave”, diz o neurocirurgião Fernando Gomes Pinto, O método mais do Hospital das Clínicas da USP em usado para São Paulo. “Conseguir uma forma de medir a pressão intracraniana não inmedir a pressão vasiva pode trazer grande benefício.” Mascarenhas começou a buscar no interior do um modo menos invasivo de monitorar a pressão intracraniana em 2006, crânio exige segundo conta, “por inconformisque se implante mo”. Pouco tempo antes havia passado por uma delicada cirurgia para um sensor no implantar uma válvula em uma das câmaras do cérebro e drenar o excescérebro, com so de liquor. Inicialmente identificarisco de infecção do como mal de Parkinson – o físico começou a apresentar dificuldade de caminhar e falhas de memória –, o problema de Mascarenhas era outro: hidrocefalia de pressão normal. Comum em idosos, é causada pelo acúmulo do líquido cefalorraquidiano nas Do presente ao passado: câmaras do cérebro. Um adulto saudável produz três gerações meio litro, ou cerca de dois copos, de liquor por de monitores dia, um fluido transparente que banha todo o sisda pressão tema nervoso central e o protege, amortecendo intracraniana os impactos e removendo os metabólitos. Com a idade, o sistema de reabsorção do liquor pode deixar de funcionar adequadamente e o fluido se acumular, pressionando o cérebro. É um fenômeno semelhante ao que se observa na hidrocefalia infantil, que atinge uma em cada mil crianças e leva à deformação do crânio porque os ossos do crânio ainda não estão consolidados. “Existem hoje no Brasil cerca de 300 mil válvulas como a que uso implantadas”, conta Mascarenhas. “O problema é que em 30% dos casos PESQUISA FAPESP 221 | 19


elas entopem e precisam ser trocadas [por meio de cirurgia].” O que mais inquietava o físico era o fato de que uma das formas de avaliar o funcionamento da válvula exigia, de tempos em tempos, instalar um sensor de pressão intracraniana. “Eu não me conformava que, em pleno século XXI, ainda fosse preciso fazer um furo na cabeça para medir a pressão intracraniana”, recorda. Mascarenhas decidiu, então, buscar uma alternativa. Consultando colegas de engenharia, descobriu que havia tempos a engenharia civil se valia de um pequeno dispositivo elétrico chamado extensômetro para avaliar sutis deformações em estruturas como as vigas de concreto ou de aço de uma ponte ou as colunas de um edifício. Em um teste inicial, Mascarenhas colou um extensômetro na superfície de um crânio humano emprestado da Faculdade de Medicina da Universidade Federal de São Carlos (UFSCar) e inflou em seu interior um balão de aniversário. Ao balão acoplou um aparelho de medir pressão arterial (manômetro) e comparou os valores registrados no manômetro com os do extensômetro (ver Pesquisa FAPESP nº 159). Embora cada equipamento use unidades de medida diferentes – o manômetro marca em milímetros de mercúrio e o extensômetro, em volts –, os valores apresentaram o mesmo comportamento: cresciam linearmente à medida que aumentava a pressão e diminuíam igualmente quando a pressão baixava. Era um sinal de que as duas ferramentas mediam o mesmo fenômeno. Mas era preciso convencer os médicos, uma tarefa nada fácil.

H

á pouco mais de dois séculos as escolas médicas ensinam que, uma vez consolidadas as articulações dos ossos da cabeça, o crânio se torna rígido e não sofre expansão. Quem primeiro propôs essa ideia foi o anatomista escocês Alexander Monro em 1783. Estudando animais, pacientes e cadáveres humanos, ele e seu aluno e colaborador, o também escocês George Kellie de Leith, postularam, entre outras coisas, que a caixa óssea que abriga o encéfalo, sangue e liquor era inexpansível nos adultos. Nesse conjunto de ideias que se tornou conhecido como doutrina Monro-Kellie, afirmaram ainda que, por não sofrer deformação, qualquer mudança no volume de um dos componentes (sangue, liquor ou tecido encefálico) levaria à alteração no volume em um dos outros, de modo que o volume total permanecesse constante. Mascarenhas e seus colaboradores repetiram os experimentos com o balão e o crânio humano e demonstraram que a doutrina Monro-Kellie precisava ser revista. O sensor montado com o extensômetro não só detectou uma sutil dilatação do crânio (da ordem de micrômetros), proporcional ao aumento da pressão interna, como também registrou sua retração, também linear.

20 | julho DE 2014

Mais que um número Oscilações da pressão intracraniana permitem saber como evolui a resposta do cérebro a danos

Fonte  Gustavo frigieri vilela / usp-rp

“Mostramos que o material não tinha uma memória da deformação, o que impediria o uso do extensômetro no Experimentos sensor para monitorar a pressão intrarealizados craniana”, contou Mascarenhas durante uma longa conversa na manhã de 15 de com um balão maio na sede do Instituto de Estudos Avançados (IEA), que criou e dirige na de borracha USP de São Carlos. demonstraram Foram necessários quase quatro anos de tentativas até que uma revista cienque o aumento tífica aceitasse publicar os resultados. “Vários editores diziam que o trabalho da pressão era bom, mas desafiava um paradigma antigo e muito sólido da medicina”, condentro da tou Gustavo Vilela, coautor do artigo publicado em 2012 na Acta Neurochirurgicabeça faz o ca, durante a entrevista na sede do IEA. crânio dilatar Ao mesmo tempo que trabalhavam para aprimorar o sensor, Mascarenhas e Vilela se dedicavam a desenvolver um monitor portátil, para ser usado também fora das salas de cirurgia e UTIs. A versão atual do monitor – a terceira já produzida – traz todos os componentes eletrônicos embarcados. Pesando menos de dois quilos, tem a aparência de uma maleta com aproximadamente 30 centímetros de largura por 30 de altura e 15 de profundidade. Sua bateria suporta cinco horas de funcionamento e seu cartão de memória, que pode ser substituído, tem capacidade para armazenar informações de dias de monitoramento.


curva de tendência da pressão

Na tela do monitor há dois gráficos. O maior, acima, mostra a evolução da pressão intracraniana em um intervalo de até 20 minutos. O menor, abaixo, permite ver o formato (morfologia) da curva

ilustração  mariana coan infográfico  ana paula campos

curva de pressão normal

OU

curva de pressão alterada

Em condições normais,

Alterações na pressão

a pressão intracraniana

modificam o formato da

varia de cinco a 20

curva. O segundo pico mais

milímetros de mercúrio

elevado (seta) indica uma

e a curva apresenta três

redução na capacidade do

picos decrescentes

cérebro de absorver sangue

Em princípio, poderia ser usado por médicos ou paramédicos em uma ambulância para avaliar a pressão intracraniana de quem sofreu um acidente de trânsito antes de chegar ao hospital. Além de todo o hardware, a nova versão do monitor abriga um programa que converte os sinais elétricos gerados pela pulsação do crânio em dois gráficos: o apresentado em um quadro maior mostra a evolução da pressão ao longo de um tempo que varia de cinco a 20 minutos, enquanto o segundo, que aparece em uma janela menor, permite observar o formato (morfologia) da curva num intervalo de tempo de poucos segundos. Esse gráfico é importante porque informa ao médico como o cérebro está respondendo aos danos. Os pesquisadores estimam que o equipamento todo (sensor e monitor), já com impostos, chegue ao mercado por cerca de R$ 3.500, quase 15 vezes mais barato do que os aparelhos usados nas formas invasivas de monitorar a pressão intracraniana. “A versão anterior precisava ser conectada a um notebook e não passaria nos testes de emissão de radiação do Inmetro [Instituto Nacional de Metrologia]”, conta Vilela. Com cinco unidades já produzidas, a versão mais nova do monitor está pronta para ser encaminhada para análises de qualidade e segurança no Inmetro. Os pesquisadores terão de aguardar a aprovação do instituto para em seguida submeterem à análise da Agência Nacional de Vigilância Sanitária (Anvisa), necessária para que o equipamento seja liberado para a comercialização e o uso na prática clínica.

40

milímetros de mercúrio é o valor que marca o início da hipertensão intracraniana

Mesmo antes de passar por esses testes, no entanto, o equipamento já pode ser usado como produto para pesquisa. “Nossa intenção é entrar no mercado universitário para ajudar a formar uma massa crítica sobre o produto”, diz Vilela, um dos sócios de Mascarenhas na Braincare, empresa criada em janeiro deste ano para ser a fabricante legal do equipamento – a produção deve ficar a cargo de uma empresa terceirizada, a Cluster Tech, também de São Carlos. “Queremos dar o equipamento para as pessoas interessadas trabalharem e as deixar descobrir coisas, porque não temos tempo nem dinheiro para fazer todos os testes”, afirma Mascarenhas. “A Braincare não quer fabricar, quer ser uma empresa que desenvolve ideias”, completa Vilela.

O

desenvolvimento de uma tecnologia totalmente nacional na área de saúde é algo demorado. Pode levar de 10 a 15 anos para cumprir todos os procedimentos de análise de segurança e custo-efetividade. E também um feito um tanto raro no país. “Em geral o desenvolvimento é incremental; sempre fomos compradores de tecnologia, por isso o déficit na balança comercial nessa área é negativo em cerca de R$ 10 bilhões”, conta Paulo Henrique Antonino, coordenador-geral de equipamentos e materiais de uso em saúde da Secretaria de Ciência, Tecnologia e Insumos Estratégicos do Ministério da Saúde. “Se tudo o que o grupo de São Carlos está mostrando até agora se confirmar, será uma revolução”, diz. “A expectativa é ter um produto para ser usado nos pacientes em rede de urgência e emergência pela praticidade.” Antonino acredita que, se essa tecnologia passar por todos os estágios de aprovação e for incorporada à prática médica, ela pode ganhar o mercado global. Os avanços para transformar o protótipo em produto devem-se, em boa parte, à interação dos pesquisadores da Braincare com os da Sapra Landauer, empresa de equipamentos de proteção radiológica criada por Mascarenhas em 1979 e dirigida por seus dois filhos, os físicos Paulo e Yvone. “A colaboração da Sapra é ajudá-los a pôr o pé no chão”, disse Yvone durante uma conversa em maio na sede da Sapra, um prédio de dois andares a 10 minutos do campus da USP em São Carlos. “Na universidade, a tendência é tentar melhorar sempre e não ir para o mercado”, explica. Em sua opinião, para que se consiga melhorar um produto é preciso ter algum retorno, até mesmo financeiro, do que já foi feito. “O mercado fala de volta para você”, diz. “No caso desse equipamento, esse é um mercado que ainda será criado e precisamos saber o que o mercado vai querer.” PESQUISA FAPESP 221 | 21


A possibilidade de monitorar a pressão intracraniana de forma não invasiva é algo que se busca há tempos. “É o sonho de todo neurocirurgião e neurologista”, afirma o neurocientista Esper Cavalheiro, da Universidade Federal de São Paulo (Unifesp), que acompanha de perto os resultados do grupo de São Carlos. Há várias situações em que a elevação crônica da pressão intracraniana pode levar à perda neuronal, lembra o pesquisador, especialista em epilepsia. “As formas diretas de medir a pressão intracraniana são invasivas e as indiretas, como os exames de imagem, são apenas indicativas e não fornecem uma comprovação de que esse aumento de fato ocorre”, explica. “Seria de grande ajuda para quem trabalha com pacientes refratários ao tratamento para epilepsia, que apresentam aumento da pressão intracraniana, em especial aqueles cuja doença de base é a neurocisticercose.”

O

utro grupo que pode se beneficiar de uma forma não invasiva de monitoramento é o das crianças com hidrocefalia, o acúmulo de liquor nas câmaras (ventrículos) cerebrais, que nos bebês causa, entre outras coisas, a deformação do crânio. “Há vários casos em que há dúvida se a válvula implantada para reduzir a pressão na hidrocefalia está funcionando bem”, afirma o neurocirurgião pediátrico Sergio Cavalheiro, também da Unifesp. Antes que o equipamento do grupo de São Carlos seja liberado para uso na clínica, lembra o neurocirurgião, é preciso demonstrar que os efeitos medidos são decorrentes mesmo da dilatação do crânio, e não da distensão da pele. “Se a medição sobre a pele permitir o monitoramento fiel da pressão intracraniana, será fantástico”, afirma.

22 | julho DE 2014

O médico uruguaio Felix Rígoli, coordenador da área de tecnologia e inovação em saúde da Organização O sonho dos Pan-americana da Saúde (Opas) no neurocirurgiões Brasil, que também apoia a execução do projeto, vê nessa nova tecnologia e neurologistas a oportunidade de se abrir uma janela para o desconhecido. “Se for posé obter uma sível medir a pressão intracraniana de modo não invasivo, poderemos forma não fazer o monitoramento continuado invasiva de e tentar descobrir o que ocorre em problemas como Alzheimer e até enmonitorar xaqueca”, diz. Nesses casos, haveria questionamento ético da necessidade a pressão de realizar um procedimento cirúrgico para medir a pressão intracraniaintracraniana na. Para Rígoli, a forma não invasiva de monitorar também permitiria conhecer os níveis normais da pressão intracraniana nas pessoas saudáveis, algo que ainda se desconhece. “Pode acontecer o mesmo que ocorreu com a pressão arterial dois séculos atrás, quando, ao se conseguir uma forma de medir a pressão fora do corpo, criou-se toda uma linha de possíveis aplicações, inclusive na prevenção de doenças.” Com cinco exemplares da nova versão do equipamento funcionando, os pesquisadores de São Carlos e Ribeirão Preto agora trabalham para coletar dados em pacientes e tentar demonstrar que o monitoramento não invasivo e a técnica invasiva medem o mesmo fenômeno. Em abril deste ano Gustavo Vilela e o engenheiro Rodrigo Andrade passaram um mês na cidade do Porto, onde usaram o novo equipamento para monitorar a pressão intracraniana de oito pacientes e comparar suas medições com os dados obtidos pela técnica invasiva. As 850 horas de registro estão agora sob a análise de Brenno Cabella, em Ribeirão. Os resultados preliminares, apresentados em um congresso internacional realizado em Cingapura em novembro de 2013, sugerem que as duas estratégias medem a mesma coisa. “Em alguns casos, a correlação foi altíssima”, conta Cabella. Mas ainda são precisos muito mais casos, talvez algumas centenas, para que a reprodutibilidade das medições seja avaliada. “Nessa fase, a investigação está na transição entre o refinamento técnico e a investigação animal para a fase clínica de avaliação com doentes”, conta Celeste Dias, coordenadora da unidade de cuidados neurocríticos do Hospital de São João, na cidade do Porto. “Aqui começa minha maior contribuição: colaborar na investigação clínica”, diz a médica intensivista. Ela conheceu o trabalho dos pesquisadores de São Carlos em 2010 em um congresso internacional e os colocou em contato com a equipe de Marek Czosnyka, da Universidade de Cambridge, na Inglaterra, renomado


especialista em análise da pressão intracraniana com quem Celeste Dias já colaborava. Em outubro Danilo Cardim vai para Cambridge, onde fará doutorado no grupo de Czosnyka. O biólogo brasileiro, que em seu mestrado avaliou a variação da pressão intracraniana em ratos epilépticos, levará na bagagem dois exemplares do equipamento não invasivo para fazer o monitoramento da pressão intracraniana em pessoas que sofreram acidente vascular cerebral ou trauma e confrontar com os registros da técnica invasiva.

A

lém do trauma, do acidente vascular cerebral e da hidrocefalia, problemas que sabidamente exigem a averiguação da pressão intracraniana, os pesquisadores pretendem ampliar a verificação desse parâmetro para outros problemas de saúde nos quais nada se sabe sobre o comportamento da pressão intracraniana, como a pré-eclâmpsia. Em São Carlos e Ribeirão Preto, a expectativa de Cavalli, Duarte e a equipe de Mascarenhas é de que o Estudo-piloto avaliou a viabilidade monitoramento não invaside usar o novo sensor em gestantes vo forneça algum sinal que sirva de indicador precoem busca de sinais de pré-eclâmpsia ce do risco de desenvolver pré-eclâmpsia. Hoje estão disponíveis no mercado testes que medem o nível de dois compostos do sangue. Mas eles só permitem Embora não haja dados na literatura científica saber se a mulher desenvolverá essa forma de hiassociando a pré-eclâmpsia a alterações na prespertensão típica da gestação no máximo três semasão intracraniana, Duarte conta que há indícios nas antes de a pressão sanguínea começar a subir e de que isso possa ocorrer. “Pode ser que não ensurgirem sintomas como dores de cabeça, tontura contremos nada, mas pode ser que se consiga algo e confusão mental. “Há uma grande dificuldade de que ninguém ainda obteve”, diz Duarte. “Se der encontrar um preditor que funcione bem e mais certo, talvez seja possível ajudar a reduzir a taxa precocemente”, conta Cavalli, que retornou em de mortalidade perinatal e materna.” n março de um estágio na Universidade Harvard, onde investigou a eficácia desses marcadores sanguíneos. “Queremos encontrar um indicador que Projetos 1. Desenvolvimento de um equipamento para monitoramento minipermita saber já no início da gestação quem tem mamente invasivo da pressão intracraniana (nº 08/53436-2); Modamaior risco de desenvolver o problema”, diz. lidade Programa Pesquisa Inovativa em Pequenas Empresas (Pipe); No início de maio Cavalli realizou um estudoPesquisador responsável Sérgio Mascarenhas Oliveira (Sapra/S.A.); Investimento R$ 221.430,90 (FAPESP). -piloto com voluntárias para avaliar a aplicabi2. Registro e comercialização de um equipamento para monitoramenlidade do sensor não invasivo. Em apenas uma to minimamente invasivo da pressão intracraniana (nº 11/51080-9); tarde, os pesquisadores monitoraram a pressão Modalidade Programa Pesquisa Inovativa em Pequenas Empresas (Pipe); Pesquisador responsável Sérgio Mascarenhas Oliveira intracraniana de oito gestantes. “Vimos que é (Sapra/S.A.); Investimento R$ 165.647,77 (FAPESP). muito simples e rápido”, diz. 3. Desenvolvimento de sensor não invasivo, hardware e software “Se conseguirmos antecipar o diagnóstico, popara monitoramento de pressão intracraniana em pacientes com hidrocefalia e acidente vascular cerebral (nº 12/50129-7); Modalidemos triar as pacientes com risco de desenvolver dade Programa Pesquisa Inovativa em Pequenas Empresas (Pipe); pré-eclâmpsia e também acompanhar a evolução Pesquisador responsável Gustavo Henrique Frigieri Vilela (Sapra/S.A.); do tratamento”, afirma Duarte, que planeja para Investimento R$ 219.948,02 (FAPESP). breve um teste clínico com o monitor não invasivo para acompanhar a evolução da pressão intracraArtigo científico niana de gestantes ao longo da gravidez e compaMASCARENHAS, S. et al. The new ICP minimally invasive method shows that the Monro-Kellie doctrine is not valid. Acta Neurochirurgica. 2012. rar com os marcadores sanguíneos disponíveis. PESQUISA FAPESP 221 | 23


léo ramos

idade 61 anos especialidade Redes de computação formação Escola Politécnica da Universidade de São Paulo (da graduação ao doutorado) instituições Núcleo de Informação e Coordenação do Ponto BR (NIC.br) e Pontifícia Universidade Católica de São Paulo (PUC-SP)

24 | julho DE 2014


entrevista Demi Getschko

Um construtor da internet Marcos de Oliveira

D

emi Getschko foi o primeiro brasileiro a ter o nome incluído no Hall da Fama da Internet, uma honraria concedida pela Internet Society (ISoc), organização não governamental formada por representantes de todo o mundo com o objetivo de promover a evolução da internet. O mérito de Getschko foi contribuir para que a rede mundial de computadores alcançasse êxito no Brasil durante os seus primórdios. Estava à frente do Centro de Processamento de Dados (CPD) da FAPESP em 1991 quando, ele mesmo diz, “pingaram os primeiros pacotinhos da internet” na sede da Fundação no bairro da Lapa, em São Paulo. Era o primeiro contato do país com a novidade que traria inovações em vários aspectos na vida das pessoas e das instituições. Por meio de acordos diretos com a administração das redes norte-americanas acadêmicas, Demi Getschko e a equipe do CPD da FAPESP conseguiram a delegação do domínio .br, que identifica o código do país nos endereços da web e dos e-mails. Com a implantação da internet e sua rápida expansão, que aconteceu primeiro no meio acadêmico, Getschko coordenou, ainda como chefe do CPD da FAPESP, a área de operações da Rede Nacional de Pesquisa (RNP) que interligou as principais universidades do país. Ele também ajudou a implementar e a dirigir a rede Academic Network de São Paulo (ANSP), provedora das universidades paulistas. Por participar de todo esse processo, ele esteve na composição do Comitê Gestor da Internet no Brasil (CGI) desde setembro de 1995 até hoje. Em 2005, foi convidado para montar e ser o diretor-presidente do Núcleo de Informação e Coordenação do Ponto BR (NIC. br), entidade que é o braço executivo do CGI e coordena os serviços da rede no Brasil. Nos últimos anos, participou ativamente da elaboração do marco civil da internet, aprovado este ano no Congresso Nacional. Antes de assumir o NIC.br, ele também foi membro da diretoria da Internet Corporation for Assigned Names and Numbers (Icann) e, depois de deixar a FAPESP em 1996, foi diretor de tecnologia da Agência Estado

e do provedor IG. Engenheiro elétrico formado pela Escola Politécnica da Universidade de São Paulo (Poli-USP), onde fez mestrado e doutorado, Getschko é professor na Pontifícia Universidade Católica de São Paulo (PUC-SP). Como é ser escolhido para o Hall da Fama da Internet? Faz três anos que a Internet Society [ISoc] escolhe pessoas para o Hall da Fama. A ISoc é uma associação formada em 1992 e concebida por Robert Kahn, Vint Cerf e Lyman Chapin [norte-americanos pioneiros na tecnologia da internet], quando a internet foi aberta para a comunidade fora do mundo acadêmico. A ISoc decidiu criar esse tipo de reconhecimento. São três categorias distintas: pioneiros, inovadores e conectores globais. A primeira contempla os que deram profunda contribuição à tecnologia da internet e desenvolveram os protocolos da família TCP/IP [Transmission Control Protocol e Internet Protocol]. Nela se inserem, por exemplo, Vint Cert, Robert Kahn, Jon Postel, Steve Crocker e outros. Os inovadores são aqueles que construíram ferramentas para operar sobre a estrutura básica da internet. Entre eles estão pesquisadores como Tim Berners-Lee, que criou a web, uma importantíssima aplicação sobre a internet. A terceira categoria é a dos conectores globais com o pessoal que se envolveu com a disseminação da rede e apoiou a internet em vários locais do mundo. É nessa terceira que meu nome foi lembrado. Da América Latina o senhor é o único? Sou o segundo a ser nomeado da América Latina. Tivemos, no ano passado, Ida Holz, do Uruguai, da Universidade Nova República, de Montevidéu, que ganhou também nessa categoria de Global Connectors. Ela é bastante conhecida na área porque participou do início de muitas redes acadêmicas. Fui o primeiro do Brasil e o segundo da América Latina. Mas vamos reconhecer uma coisa muito importante: essa designação pessoal de alguém é algo absolutamente injusto, porque sempre é um trabalho PESQUISA FAPESP 221 | 25


coletivo. Como não se pode eleger um time de muitos, elegem um ou dois. Então queria deixar claro aqui que ninguém fez nada sozinho. E eu sou uma das pessoas que participaram do time que trouxe as redes acadêmicas para o país e que tinha gente da FAPESP, da RNP [Rede Nacional de Pesquisa], do LNCC [Laboratório Nacional de Computação científica], da UFRJ [Universidade Federal do Rio de Janeiro], e muitos mais, que montaram conexões acadêmicas no Brasil no fim dos anos 1980. Por algum motivo acabaram me citando, talvez porque eu tenha ficado na área de forma mais ou menos constante. O senhor faz parte da Internet Society? A Internet Society [ISoc] é uma organização não governamental que tem sede nos Estados Unidos e capítulos pelo mundo. Eu faço parte do chapter brasileiro, que deve ter uns 300 membros. A Internet Society central é mantida com recursos financeiros do registro de domínios sob o .org, que é operado pelo PIR [Public Interest Registry]. Assim, tudo que é registrado debaixo de .org gera recursos que são carreados para a ISoc. Da mesma forma que o .br gera recursos a partir do registro de domínios para o CGI e para o NIC. Uma das principais atividades da ISoc é coordenar as reuniões do IETF [Internet Engineer Task Force], o órgão que trabalha na geração dos padrões da internet. O IETF é coordenado pelo IAB [Internet Architecture Board], que mantém a ortodoxia da internet, no sentido de observar e preservar os princípios originais da rede. O que seriam esses princípios originais da internet? A internet foi concebida para ser uma rede aberta e única. Espera-se que ela não se fragmente. Quando acontecem tensões na China, na Rússia ou em outros lugares, surgem ameaças de fragmentação. A internet é uma rede cooperativa e a raiz de seus nomes é única. Quando você escreve um nome que, por exemplo, termina em .com, ele é resolvido de forma única: não existem duas formas de nomear um equipamento na rede. Além disso, outro princípio básico é que ela teria que ser mantida sempre neutra entre os dois pontos finais: o emissor e o receptor. Esteja você na Austrália e eu no Brasil, ninguém no meio da rede teria o direito de se intrometer nos 26 | julho DE 2014

pacotes e seu conteúdo, nos serviços e protocolos usados. A função do “meio” da rede é a de carregar informação (pacotes) de um ponto da rede para o outro. É uma grande “despachante” de pacotes. A rede nunca entra no mérito do que está carregando, só despacha. Claro que, com o tempo, aparecem coisas no meio do caminho, como ataques propositais a sítios, que podem afetar um pouco o conceito fim a fim, a ideia original da internet. Outra fonte de tensão é o fato de que a internet representa uma ruptura para uma série de modelos preexistentes. Um deles é o modelo tradicional de geração de padrões. A internet não tem um processo formal envolvendo governos e grandes empresas de telecomunicações, como acontece, por exemplo, na ITU [International Telecommunication Union], mas sim um processo aberto a pessoas e entidades de qualquer área, seja acadêmica, técnica ou comercial, que querem participar. Os voluntários se reúnem três vezes ao ano, sempre representando a si próprios, não instituições, discutem e geram padrões que até hoje sustentam e fazem crescer a rede. Outra característica é que, como sua base está estabelecida a partir de padrões abertos TCP/IP, todos estão livres para gerar aplicações sobre essa base sem precisar de nenhuma licença ou tipo de permissão: a chamada permissionless inovation [inovação sem permissão]. Ninguém perguntou se podia lançar o Twitter ou o Facebook. Você tem uma ideia? Implante e jogue na rede. Se for um sucesso, muito bem, você pode se tornar milionário; se for mau, melhor pensar em outra ideia. Essas são características típicas da internet que não existem na telefonia ou nas telecomunicações. Existem propostas nos Estados Unidos, pelo crescimento intenso do uso da rede com vídeo, de aumentar a participação arrecadatória das empresas de telecomunicações. Como o senhor vê isso e como está a situação no Brasil? É importante racionalizar o tráfego para o benefício de todos. Uma das formas de fazer isso é implantar Pontos de Troca de Tráfego [PTTs], ou IXP [Internet Exchange Points]. No Brasil o ponto mais importante de tráfego está em São Paulo, onde já bateu 500 gigabites por segundo de pico, que é um número muito sério. Somos o quarto ou quinto país do mun-

do que mais usa PTTs na troca de tráfego. O que se nota hoje é uma mudança no aspecto da curva de tráfego no PTT de São Paulo e que é uma boa amostragem brasileira. Antes tínhamos um pico às 11 horas, caía um pouco na hora do almoço, voltava a subir às 14 horas, alcançava o máximo às 16 horas e começava a descer, decaindo até a madrugada. De uns seis meses para cá, continua o pico das 11h30, cai um pouquinho no almoço, sobe às 14 horas e vai subindo até as 16h30, aí começa a cair e quando dão 18h30, 19 começa a subir de novo e atinge o pico do dia às 22 ou 23 horas. Por causa do quê? Porque o tráfego é cada vez mais afetado por aplicações que se dedicam a entretenimento. As pessoas estão usando mais banda em casa do que no escritório, porque não assistem a filmes durante o trabalho, mas em casa sim. E domingo, que era um dia de tráfego muito baixo, hoje tem mais tráfego que segunda ou terça. Significa uma mudança no perfil de tráfego em direção à área de entretenimento, não apenas só comércio, informação, serviço etc. Um filme usa muito mais banda que um acesso à conta bancária, por exemplo. A discussão sobre isso é complicada, envolve inclusive o debate sobre neutralidade. Só para abrir um parêntese, em fins de abril tivemos em São Paulo o NetMundial, um evento que gerou um importante documento final. Eu participei da equipe de consolidação e de redação deste documento, que foi um processo de busca do consenso. Consenso é algo que, teoricamente, não é inaceitável pelos participantes, pode desagradar um pouco a cada um, mas o faz por igual. Neste documento de consenso, a palavra “neutralidade” [net neutrality] não aparece, mas foi preservado o importante conceito de fim a fim, de que não pode haver interferência de um intermediário no pacote de dados que trafegam na rede. Por que não aparece neutralidade? Porque essa palavra hoje está semanticamente muito carregada. O que se entende por neutralidade nos Estados Unidos não é o mesmo que se entende na Europa ou na Índia. É difícil definir, e alguém sempre vai dizer que não aceita a definição do outro, mesmo sem saber bem qual é. Vou dar um exemplo. Neutralidade é facilmente entendida quando tratamos de telecomunicações, mas não é esse o caso


quando falamos de neutralidade na internet, onde há inúmeras camadas e contextos em que neutralidade é algo a ser mantido. Olhe o que se passa, por exemplo, na TV a cabo por assinatura. Se amanhã aparecer um novo canal que eu não assino, eu posso nem saber que ele surgiu, mesmo que eventualmente fosse um canal com conteúdo que me interessa. Na internet surgiu há pouco tempo, por exemplo, o Twitter. Todos puderam ter contato com esse novo serviço e adotá-lo ou não. Não há assinatura de serviços na internet – acessa-se tudo o que nela existe. Ao contrário do mundo da TV a cabo, que é um “jardim murado”. Esse não é o modelo que gostaríamos para a internet, por isso lutamos pela sua neutralidade: a rede tem de estar aberta para qualquer inovação e serviço e eles devem estar disponíveis para todos os usuários. A experiência de cada um de nós na internet tem que ser sempre total. Ninguém pode dizer que uma pessoa só pode ver vídeos do YouTube, ou só ver correio eletrônico na rede. Um “jardim murado” limita a navegação no máximo ao já existente: se aparecer algo novo, os usuários podem nem ficar sabendo. E isso é quebra da neutralidade. Em resumo, é preciso pensar em neutralidade como algo qualitativo. Não podemos ter distinção entre conteúdos, entre serviços. Quantitativamente, se eu quero mais banda, tenho que pagar mais por ela. Se eu quero 10 megabits por segundo, isso é mais caro do que um megabit. Mas, com qualquer banda de acesso, 10 ou um, deve-se ver uma internet completa, sem bloqueios ou “muros”.

consenso. O Alessandro Molon [PT-RJ], deputado federal relator do projeto, trabalhou muito para que o marco civil chegasse à sua aprovação e em todas as fases sempre batalhou para manter de pé os três pilares fundamentais do marco, baseados no decálogo do CGI: neutralidade, privacidade do usuário e responsabilização adequada da cadeia de valor. O que é responsabilização adequada da cadeia de valor? Quando se busca um responsável por um abuso cometido na rede, há sempre uma tendência de pegar o caminho mais fácil ou mais visível. Por exemplo, digamos que há um vídeo problemático no YouTube – e isso ocorreu, por exemplo, com um vídeo na praia de uma artista,

culpa da mensagem. Se eu receber uma carta que me ofenda, não vou responsabilizar o carteiro. Pode-se até pedir para o YouTube tirar esse vídeo específico do ar, porque a Justiça o considerou inadequado e, se for viável tecnicamente, o provedor tem que o remover obedecendo à decisão judicial. Mas, se o provedor for automaticamente responsável pelo que lá está hospedado, podemos chegar a uma situação onde, se há uma página cujo conteúdo desagrada a alguém, e se esse alguém responsabilizá-lo, ao ser notificado da reclamação, esse provedor certamente vai retirar do ar o que está sendo reclamado, por medo de ser processado. Mesmo que o conteúdo da página não seja irregular. Com isso cria-se um ambiente de provável autocensura. Então é preciso que se responsabilize o verdadeiro autor, evitando-se o crescimento do fantasma da autocensura. Qual o papel da Icann [Internet Corporation for Assigned Names and Numbers]? Esse órgão é ligado ao governo norte-americano? A Icann é uma instituição sem fins lucrativos, sediada na Califórnia, que tem um conselho formado por 16 pessoas de todos os lugares do mundo, mas não tem a ver com tráfego na internet. A constituição do conselho da Icann é multissetorial, da mesma forma que a do CGI. Três brasileiros já fizeram parte do Conselho da Icann: Ivan Moura Campos, Vanda Scartezini e eu, que lá estive por cinco anos, eleito pela ccNSO [Country Code Names Supporting Organization], organização ligada aos domínios de código dos países. Tem também alguns pontos fracos. O defeito, por exemplo, de não ser legalmente internacional ao estar sob a lei da Califórnia. Se algum juiz de lá decidir alguma coisa estranha baseado em lei local, isso pode afetar a internet. O problema da Icann é que ela cuida de algo bastante limitado, mas importante, que é a raiz da lista telefônica responsável por traduzir um nome de domínio para um número IP. Tudo que termina em .br, por exemplo, tem que ser convertido para um número. Mas alguém precisa ser o cabeça da

É preciso pensar em neutralidade como algo qualitativo, sem distinções entre conteúdos e serviços

E o marco civil da internet no Brasil que foi aprovado? O conceito e a constatação da necessidade de marco civil para a internet no Brasil começaram a partir da discussão e aprovação do decálogo do CGI. O marco civil foi objeto de longa discussão, com diversas audiências públicas e mais de 2 mil contribuições de indivíduos até se chegar ao seu formato final. Foi um projeto de lei criado e discutido com muita interação e, fundamentalmente, com a busca de um

a Daniella Cicarelli, há uns sete anos. Alguém se sentiu ofendido pelo vídeo e entrou na Justiça pela sua remoção. Não entro no mérito do vídeo em questão, se é bom ou ruim, mas não parece razoável tirar todo o serviço de vídeos [YouTube] do ar por causa desse vídeo específico, mas foi o que um juíz à época decidiu. Daí sai o vídeo da Cicarelli, mas sai uma enorme quantidade de outros vídeos também, que nada têm a ver com o eventual abuso em questão. De quem é a culpa no caso desse vídeo da Cicarelli? Não parece ser do provedor de vídeos [YouTube], mas sim da pessoa que fez o vídeo. Se é para responsabilizar alguém, onere-se quem gerou o abuso, e não quem está no meio do caminho. O mensageiro não tem

PESQUISA FAPESP 221 | 27


lista e dizer como se chega ao .br para que, depois, o responsável pelo .br, no caso o NIC.br, finalizar a tradução de, por exemplo, usp.br, ou fapesp.br. Assim, da raiz dessa “árvore” de tradução de nomes para números é a Icann que cuida. Além disso, a Icann tem outra tarefa crítica, que é distribuir números IP [Internet Protocol] para os órgãos regionais RIRs [Regional Internet Registries], que os distribuem para as instituições e usuários finais. Aqui no Brasil, desde 1994, nós recebemos do Lacnic e distribuímos números para o país, autonomamente. E essa questão de que todo o tráfego da internet passa pelos Estados Unidos? Bem, isso depende mais da geografia e do projeto global de engenharia nas telecomunicações. Não da Icann, que, como disse, trabalha com nomes e números. Tráfego tem a ver com a localização das fibras ópticas submarinas, das grandes centrais de comutação de dados. As fibras brasileiras, por exemplo, aportam em sua grande maioria nos Estados Unidos e dali saem outras para a Europa, Ásia e África. É o resultado de modelagem da engenharia de telecomunicações, não da internet, que apenas trafega no interior desses cabos. Com isso, os EUA acabam sendo topologicamente um centro de tráfego muito importante e, se usarem isso para espionar o tráfego, têm facilidades especiais por concentrarem a passagem de boa parte dele.

armazenado em algum lugar, é um típico caso ligado diretamente à internet. Mas os casos delatados pelo Snowden [Edward Snowden, ex-analista da Agência de Segurança dos Estados Unidos que revelou casos de espionagem do governo norte-americano] ou são vazamentos em cabos submarinos e, portanto, das telecomunicações, ou são grampos na telefonia celular, que também é telecomunicações. A internet entrou nisso de gaiata e está pagando por um problema que não é dela. E do Julian Assange, do Wikileaks [site que revelou documentos secretos dos Estados Unidos]? Também é vazamento, principalmente de telegramas e de cabos submarinos, ou seja, telecomunicações. Recolhe-se a informa-

órgão leve e multissetorial como o CGI. Continuamos recebendo elogios e citações em vários lugares. O presidente da Icann, quando vai a um país, sempre elogia o modelo brasileiro e sugere que o imitem. O CGI foi montado em 1995, teve algumas reformulações e atualmente está na configuração que foi criada por decreto em 2003. Que reformulações? O CGI teve pequenas alterações de composição, tanto em número de conselheiros como na representação. Na configuração atual que temos, a de 2003, são 21 membros, sendo nove do governo e 11 da sociedade civil, eleitos pelos respectivos segmentos. Os nove do governo não têm prazo de mandato porque ficam até outro representante ser eventualmente nomeado pelo ministro correspondente. Às vezes, o próprio ministro é o ocupante da cadeira no CGI. Os 11 eleitos diretamente por suas comunidades têm três anos de mandato. Existem três assentos para a academia, quatro para o terceiro setor, quatro para a área empresarial, assim distribuídos: um para os usuários empresariais, um para provedores de acesso e serviços, um para provedores de infraestrutura e um para o segmento empresarial de software e hardware. Importante observar que o governo não tem maioria no CGI. O coordenador do CGI, por razões históricas, desde sua criação é sempre o representante indicado pelo Ministério da Ciência, Tecnologia e Inovação. Em teoria teríamos uma situação em que 12 se sobrepõem aos nove numa votação, mas, em termos de internet e de consenso, isso não seria nada bom. Uma votação com maioria apertada nunca aconteceu, a votação é, sempre que possível, substituída por comum acordo. Raramente tivemos votações e, quando houve, foi 20 a um, 19 a dois, por exemplo. Outro aspecto importante é que o CGI não tem poder de imposição ou de regulação. Ele gera boas normas, toma medidas, gera estatísticas, dá cursos em áreas específicas e toma ações em favor da internet no país.

O padrão da internet se mostrou magnífico desde kilobytes até terabytes, mas será sempre assim?

As pessoas fazem muito essa confusão? Sim, mas a confusão também pode ser proposital, porque tem interesses envolvidos. Existem pontos privilegiados na rede, onde uma monitoração pegaria quase tudo que passa. É como colocar câmeras e sensores no metrô da praça da Sé: todo mundo baldeia ali. Se monitorarmos aquela estação toda, pegaremos boa parte do tráfego total que passa no metrô. Claro que o monitoramento ilegal em telecomunicações e internet é uma ação deplorável e todo mundo devia ser contra, mas isso não é culpa da internet em si, que paga o pato. O que seria culpa direta da internet? Vazar o correio eletrônico, que estava 28 | julho DE 2014

ção de algum lugar e se dissemina na rede. Se houvesse vazamento no correio eletrônico, por exemplo, seria um problema da internet. Na China, há algum tempo, o governo queria descobrir quem era o dono de alguns blogs e algumas empresas, inclusive norte-americanas, colaboraram e o governo chegou até alguns ativistas. Isso certamente é uma culpa que pode ser atribuída à internet e, claramente, não é bom. Assim, não estou dizendo que a internet não tem culpa, tem sim, mas na proporção que lhe diz respeito. Eu queria que o senhor falasse também sobre o Comitê Gestor da Internet. Foi um exemplo para outros países? Sim. O Brasil foi muito feliz ao criar um


O TCP/IP continua forte mesmo com todas as mudanças. O senhor continua com essa visão? Sim. Desde há muito tempo o TCP/IP, o Ethernet e outros padrões viraram a única opção prática, e não há discussão. Antes disso, nos anos 1980, havia uma multiplicidade de opções e era uma longa discussão a escolha do padrão a ser usado em cada caso. Sem falar que as opções eram ligadas aos fabricantes. Para redes, por exemplo, os usuários da IBM usavam SNA e Token Ring, os usuários da Digital, Decnet etc. Tudo isso se consolidou em torno de um único padrão dominante, que é ainda o TCP/IP. Essa discussão dos anos 1980 não acontece mais hoje, e ninguém mais fala em rede de longo alcance sem se referir automaticamente ao TCP/IP, e não tem rede local que não esteja usando Ethernet. Certamente o pessoal que pesquisa protocolos não vai deixar que continue tudo congelado por mais 30 anos. O TCP/IP mostrou uma flexibilidade magnífica, indo dos kilobytes até os gigabytes e terabytes, mostrou que ainda está avançando e tem vitalidade, mas não se pode garantir que continue a ser sempre assim. Padrões exaurem-se e são eventualmente trocados por outros ou recebem adições. Hoje existe uma forte pressão da área de pesquisa em redes para que se desenvolvam e testem alternativas, o que é sempre muito saudável. Se a alternativa for boa, ela acaba se sobrepondo ao que existe. Se não for, nada acontece. Hoje pragmaticamente não temos alternativa comercial viável ao TCP/IP, mas pode ser que daqui a cinco anos seja diferente. O pessoal começa a ficar inquieto e quer mudar tudo. O senhor chefiava o CPD quando a FAPESP fez a primeira ligação de internet do Brasil. Como foi que o senhor entrou na Fundação? Entrei na Poli em 1971 para fazer engenharia elétrica e antes do fim do ano passei a ser estagiário do Centro de Computação Eletrônica [CCE]. Na Poli, segui eletrônica e dentro dela fui para telecomunicações, mas sempre trabalhei na área digital. Em 1976, quando estava formado e o diretor do CCE era o professor Geraldo Lino de Campos, da Politécnica, a FAPESP tinha instalado experimentalmente um computador num sobradinho na rua Pirajussara, perto do Rei das Batidas, na entrada principal da USP. Era um Burroughs 1726, uma excelente máquina com um sistema operacional muito interessante. Lá o Geraldo

desenvolveu o sistema Sirius, que controlaria auxílios e pesquisas da FAPESP. Eu era também do CCE e ele me chamou para participar do desenvolvimento do Sirius. Eu ia lá de noite. Passei a ir três vezes por semana na Pirajussara, ligava o Burroughs e tentava escrever alguma parte dos programas agregados ao Sirius. Nessa época eu conheci o professor Oscar Sala, físico e membro do Conselho Superior da FAPESP. Era ele que fazia o maior esforço para levar a informatização para a Fundação e tinha batalhado pelo B1726. A FAPESP nessa época ficava em um prédio na avenida Paulista e tinha todo seu controle de bolsas e auxílios ainda em fichas, de forma manual. Como chegavam as informações na rua Pirajussara? Chegavam em papel ou em fita. Não era on-line, estávamos ainda testando o sistema e recebíamos os conjuntos de dados da Paulista em papel. A FAPESP tinha acabado a construção do prédio atual na Lapa e ia montar um datacenter lá. Ainda lembro do dia em que mudamos os equipamentos da rua Pirajussara para a nova sede. O B1726 foi num caminhão, que era semiaberto. Fui junto e torcia para que não chovesse... Se chovesse, a gente arriscaria o B1726. Por sorte o dia estava ensolarado e tudo acabou bem: chegamos intactos à rua Pio XI. Com o computador instalado e funcionando na nova sede da Fundação, tudo deixava de ser experimental e era preciso uma equipe definitiva e estável na FAPESP. Eu, que estava ligado ao CCE, onde trabalhava normalmente, encerrei minha participação na iniciativa de informatização da Fundação. Quem assumiu o datacenter foi o Vitor Mammana de Barros, um engenheiro que tinha saído do CCE. Ele ficou na FAPESP como superintendente de informática, e eu tinha ainda algum contato para ajustar os programas que tínhamos feito ainda na Pirajussara. Em 1985, quando o CCE passava por algumas reformulações importantes gerando incerteza geral, aconteceu de o professor Alberto Carvalho e Silva, que era presidente do CTA [Conselho Técnico-Administrativo] da FAPESP, me chamar para conversar e disse que o Vitor estaria voltando para o CCE, que estava sendo reestruturado. Ele perguntou se eu não queria assumir o datacenter. Eu conhecia bem a máquina e o Sirius e isso me agradou muito. Por outro lado, tinha terminado o mestrado na Poli em 1982 e ir à FAPESP era uma ideia mui-

to feliz, porque me permitiria continuar o doutorado além de trabalhar em algo em que eu já tinha me envolvido e de que gostava. Então, decidi que iria para a Fundação, juntar-me e cuidar da pequena equipe de três ou quatro analistas, aos quais competia tratar da informatização dos processos administrativos internos e das concessões de bolsas de auxílios para pesquisadores. Nessa época a comunidade acadêmica começava a utilizar correio eletrônico. Sim. O pessoal da física, por exemplo, que ia fazer mestrado e doutorado fora do país, queria preservar o contato com os pesquisadores no exterior. E lá fora já usavam extensamente correio eletrônico, que aqui não havia. Aí começamos a pesquisar como trazer isso pra cá. A necessidade era tanto de pesquisadores da USP como da Unicamp e Unesp. Assim, o professor Sala decidiu que, se tanta gente queria, o melhor era que a FAPESP assumisse o papel de fazer o serviço e que nós tentássemos dar uma solução. Pude chamar o Alberto Gomide, um profissional brilhante em software que já havia trabalhado no CCE e estava na Unesp. Além dele, mais alguns, entre eles lembro do Joseph Moussa, matemático, Vilson Sarto, engenheiro, e outros. O Sala tinha ótimos contatos com o Fermilab, um laboratório de física de alta energia em Batávia, perto de Chicago, nos Estados Unidos, e combinou com eles a nossa conexão, porque afinal precisávamos nos conectar em algum lugar. Em 1987, numa reunião que houve na Poli sobre redes acadêmicas, descobrimos que existiam também outras iniciativas no país tentando conexões com redes acadêmicas internacionais. Estavam nessa reunião o Michael Stanton, da PUC-Rio, o Tadao Takahashi, do CNPq e que lideraria a futura RNP, o Paulo Aguiar, da UFRJ. Nós já tínhamos alguma experiência com redes, porque havíamos montado a primeira fase da Rede USP, que era uma rede de terminais do computador Burroughs 6700 da universidade. Nessa reunião em 1987, vimos que tanto o LNCC como a FAPESP estavam tentando uma conexão internacional e que ambos tinham escolhido fazer conexão a uma rede bem simples, de que os pesquisadores gostavam muito à época: a Bitnet. Havia também a proposta de criação de uma rede nacional, que seria a futura RNP, mas ainda não se sabia quais seriam os padrões. PESQUISA FAPESP 221 | 29


Eram tempos pré-PC? Os PCs estavam começando a se espalhar, mas não estavam ligados em rede ampla, apenas em redes locais. Tínhamos alguns na FAPESP. Mas, voltando à Bitnet, o LNCC conectou-se a ela em setembro de 1988, um mês antes da conexão da Fundação. A conexão do LNCC era com a Universidade de Maryland, nos Estados Unidos, e a nossa foi com o Fermilab, mas sempre nos ajudávamos mutuamente. Quando fomos nos conectar, entramos com um pedido de ligação de cinco máquinas: USP, IPT, Unicamp, FAPESP e Unesp. Aí o pessoal da Bitnet, nos Estados Unidos, nos avisou que conectar cinco novos nós a essa rede, e todos do Brasil, configurava-se mais como uma conexão de uma nova sub-rede [ver mais em Pesquisa FAPESP nº 180]. Então era melhor, em vez de pedir uma conexão de cinco máquinas à Bitnet, criar uma sub-rede regional, como outras que estavam conectadas à rede. Para nome dessa sub-rede, o Gomide sugeriu São Paulo Academic Network, Span, mas esse nome já existia, era da Nasa, o Space Physics Analysis Network, e nós não sabíamos. Tivemos que mudar, trocamos a ordem das letras e ficou Ansp, que é Span invertido: an Academic Network at São Paulo. Foi a primeira latino-americana? Sim. À época da Bitnet não lembro de nenhuma outra. Tanto assim que toda a topologia Bitnet no Brasil passou a ser definida na FAPESP. O roteamento da Bitnet consistia apenas de uma tabela que descrevia quais computadores estavam ligados em que máquinas. Essa tabela era atualizada uma vez por mês, para incluir novas máquinas participantes ou alterar conexões. Roteamento bem pouco dinâmico. Para tornar os nomes um pouco mais padronizados sugerimos usar br na frente de todos eles. Ficamos com brfapesp, brusp, bruc, da Unicamp, bript etc. Eram nomes com um nível só, sem “sobrenome”, sem ponto isso ou ponto aquilo. O pessoal do Rio e de outros lugares passou também a usar o br na frente: brufmg, brufrgs, brufpe, começamos a difundir a rede desse jeito. Um e-mail levava horas, às vezes um dia, dependendo do tamanho da fila de despacho. Mas já era uma maravilha, porque, perto do correio normal, não tinha comparação – era muito melhor. Como foi registrar o .br para o Brasil? A rede acadêmica crescia com uma 30 | julho DE 2014

multiplicidade de protocolos e máquinas. Além da Bitnet, tínhamos a HEPNet [High Energy Physics Network], máquinas ligadas à UUCP, à Fidonet, à Renpac (x.25) da Embratel etc. E ficava difícil dar nome adequado às máquinas. Fomos atrás do “sobrenome” .br e pedimos o seu registro, que nos foi delegado em 18 de abril de 1989 pelo Jonathan Postel, administrador da Iana [Internet Assigned Numbers Authority] na Universidade do Sul da California, onde ficava a gestão da raiz da internet. Não houve nenhuma interação mais formal, exceto com o pessoal envolvido em redes acadêmicas. Nem intervenção de nenhum tipo do governo norte-americano, nem do governo brasileiro, ou do Itamaraty. Foi algo entre a comunidade dos que operavam redes acadêmicas, como era praxe na internet. O Postel achou que tínhamos maturidade suficiente para sermos o foco do .br e resolveu atender à comunidade local e, assim, delegou o .br aos cuidados da equipe que operava a rede na FAPESP.

pacote de software que implementava o TCP/IP em máquinas DEC. A data precisa não lembro, mas era janeiro, férias coletivas na FAPESP. O Joseph Moussa [funcionário do CPD da FAPESP] estava lá e recebemos uma fita com o programa que fazia a implementação do TCP/IP. O Joseph instalou o programa, funcionou, e os primeiros pacotes da internet começaram a entrar na FAPESP.

E a internet no Brasil? Bem, ganhamos o .br em 18 de abril de 1989, mas já perto do fim daquele ano ficou claro que a Bitnet começava a murchar, e que a internet, que tinha muito mais recursos, iria acabar prevalecendo e absorvendo a Bitnet e, provavelmente, as demais alternativas também. A Bitnet era boa para correio eletrônico, listas de discussão, mas era muito limitada na interação e no acesso remoto a computadores, além de estar crescendo bem menos. Nessa época pedimos ao pessoal do Fermi que, quando eles fossem para a internet, nos levassem junto.

Como foi o início? A linha que sustentava a rede acadêmica brasileira via RNP era a da FAPESP, inicialmente uma pobre linha de 64 kilobits [Kbps], que depois passou a 128 Kbps, 256 Kbps e, finalmente, para dois Mbps. Eu era o coordenador de operações da RNP, que estavam centradas na FAPESP e, por uma questão de organização, pedíamos diretamente à Embratel as linhas que a RNP usaria em seu backbone. A RNP pagaria as linhas nacionais e equipamentos alocados nos pontos de presença nos estados e a Fundação, a conexão internacional. Todo o primeiro backbone da RNP foi projetado numa reunião na FAPESP com a participação do Michael Stanton, do Alexandre Grojsgold, do LNCC, e do Alberto Gomide, da FAPESP. Logo em seguida discutiu-se a estrutura de nomes a usar embaixo do .br. As universidades, por sua participação histórica no processo, poderiam ficar diretamente debaixo do .br, surgindo assim usp.br, unicamp.br, ufmg.br etc. Criamos o gov.br para o governo e, abaixo dele, as siglas dos estados, como sp.gov.br. O com.br foi definido para a futura área comercial, o org.br para o segmento de organizações sem fins de lucro, o net.br, para máquinas ligadas à infraestrutura da rede.

Vocês perceberam a movimentação e sabiam da internet. Em 1989 estava sendo criada uma espinha dorsal para o Departamento de Energia norte-americano, onde o Fermi estava ligado e essa espinha dorsal, a exemplo da NSFNET [da National Science Foundation], também usaria TCP/IP e faria parte da internet. O Fermi migraria assim que possível para esse recém-criado backbone [espinha dorsal], chamado de ESNet [Energy Sciences Network], o que aconteceu em 1990. Como estávamos ligados a eles, trabalhamos para implantar TCP/IP também na máquina da FAPESP e, em janeiro de 1991, conseguimos trocar os primeiros pacotes TCP/IP, usando um

Era um espelho do que já existia nos Estados Unidos? Sim. E parece-me que foi uma boa ideia. Porque .com, .net e .org já existiam nos Estados Unidos e nós achamos bom manter essas siglas com três letras, sob o .br. Os ingleses usam duas: ac.uk, por exemplo, para academic, ou co.uk, no commercial. O com.br valeu-se da expansão do .com internacional em termos de disseminação. Afinal, se trata de uma empresa brasileira, em vez de usar .com, que use .com.br. Na época não tinha quase nada comercial ainda, mas claro que era bom prever. Se àquela época quase tudo era acadêmico, a disseminação foi muito rápida e tudo mudou em poucos anos. Em dezembro de 1994,


finalmente a Embratel se convenceu a dar acesso à internet para as pessoas físicas no Brasil. O TCP/IP era ainda um padrão não “de direito” e algo underground. Mas o mundo já estava mudando e adotando rapidamente o TCP/IP, até porque a família de protocolos proposta pela ITU era muito mais cara, bem complicada e voltada à bilhetagem, diferente do mundo internet. A Embratel, convencida pela RNP, montou no Rio o primeiro ponto de acesso à internet para os usuários brasileiros. Só que a abordagem dela foi muito centralizadora: criou um 0800 para as pessoas ligarem e todo mundo ia ter uma conta em @embratel.net.br. Quer dizer, a Embratel seria a única porta de acesso à internet pelos brasileiros. Houve uma reação imediata, porque o pessoal da rede acadêmica achava que estava errado a Embratel ser a “internet brasileira” e que isso seria muito limitante à expansão. Então foi feito um contato entre a RNP e o ministro das Telecomunicações da época, o Sergio Motta. Tadao Takahashi, Ivan Moura Campos e Carlos Afonso, do Ibase, convenceram o ministro de que o caminho a seguir era outro: montar um esquema hierárquico que desse riqueza à internet brasileira. No começo de 1995, o ministro Sergio Motta baixou uma portaria vedando a Embratel de fornecer a internet diretamente. A Embratel daria acesso às teles regionais [empresas de telefonia], que dariam acesso aos provedores, que levariam a internet ao usuário final. Surgiram provedores da área de conteúdo, Folha, Abril, Estadão, JB etc. Assim, apareceu material em português rapidamente. Diziam que brasileiro não ia querer saber de internet, porque o conteúdo dela era todo em inglês, mas isso foi facilmente desmentido. O Comitê Gestor entendeu que precisava consolidar a estrutura existente e delegou à equipe da FAPESP o registro de nomes e números. Depois, o CGI também decidiu que íamos começar a cobrar o registro de nomes de domínio, como aliás acabava de acontecer nos Estados Unidos, para que a atividade pudesse ser autossustentável. Até então a Fundação mantinha três ou quatro funcionários, além de suportar o pagamento das linhas internacionais. A

decisão foi de cobrar o equivalente ao que se cobrava nos Estados Unidos: R$ 50 na inscrição e mais R$ 50 por ano. Para que esse recurso ficasse segregado, foi criado um processo dentro da FAPESP, o projeto de auxílio à pesquisa Comitê Gestor da Internet no Brasil. O CGI passou a ter recursos para aplicar em atividades de interesse da internet no país. Lembro da reunião do CGI na FAPESP, em 2000, quando o professor Landi [Francisco Landi, ex-diretor-presidente da FAPESP] comentou que o projeto do Comitê Gestor já tinha cinco anos e esse era o tempo máximo de duração dos projetos na FAPESP, e que não poderia abrigar mais o registro da internet brasileira. O CGI concordou que era hora de buscar uma solução própria e mudar. O registro brasileiro migrou

cional para a Fundação. Decidiu-se em 2002 que o CGI criaria uma ONG sem fins lucrativos, o Nic.br. O senhor nasceu na Itália e se tornou brasileiro? Como foi? Nasci na cidade de Trieste e minha família veio para o Brasil em 1954, quando eu tinha um ano de idade, e sou naturalizado brasileiro, mas eu não tinha nenhuma nacionalidade anterior. Não era italiano e virei brasileiro. Como assim? Eu fui apátrida até me naturalizar em 1976. Meu pai era grego, minha mãe é búlgara e meu irmão nasceu no Brasil. Nasci em 1953 e Trieste ainda era zona de ocupação aliada depois da Segunda guerra mundial, porque só no final daquele ano os norte-americanos saíram de algumas cidades-chave. Meus pais se naturalizaram brasileiros bem antes de mim. Quando estava no fim da Poli, acelerei o processo de naturalização porque tirar passaporte como apátrida é um inferno.

O Comitê Gestor da Internet criou a ONG NIC.br em 2002 e em 2005 assumiu a gestão da rede em 2001 para um prédio na marginal Pinheiros e construiu um centro de processamento de dados lá. E o Nic foi criado? O CPD do CGI já estava montado quando, em 2002, o Ivan Moura Campos, que era o coordenador do CGI, concluiu que necessitávamos de uma pessoa jurídica para substituir a FAPESP tanto na eventual responsabilização pelas ações do registro brasileiro quanto no recolhimento e depósito das contribuições. Até então, todos os boletos saíam com o CNPJ da FAPESP, que acabava também envolvida nos processos judiciais referentes a conflitos no registro de nomes de domínio sob o .br. Isso era um incômodo adi-

Vieram para São Paulo? Viemos em 1954 e sempre moramos aqui. Minha raiz religiosa familiar é greco-ortodoxa e estudei num colégio de freiras católicas no Tatuapé, depois num colégio de padres espanhóis no ginásio e científico e, por fim, entrei na Poli.

E a vida acadêmica como professor? Fiz mestrado e doutorado [Poli-USP] e até entrei como professor na Poli e dei aulas de rede de computadores por uns anos por lá. Foi na época da FAPESP ainda, quando se abriu um concurso. Entrei, dei aulas, mas, como eu não tinha tempo para pesquisar na Poli, achei melhor abandonar. Academicamente estou na PUC-SP desde que foi criado o curso de ciências da computação. Dei aulas para as turmas na graduação, sobre arquitetura de computadores e de redes. Também dou aulas no programa de pós-graduação em Tecnologia de Inteligência e Design Digital, um curso interdisciplinar bastante interessante que acabou de formar o primeiro doutor. n PESQUISA FAPESP 221 | 31


política c&T  publicação y

Crédito para todos Grupo propõe novo método para classificar o papel de cada autor nos artigos científicos

U

32  z  julho DE 2014

Concepção do estudo ideias Formulação de

e proposição de hipóteses e de squisa perguntas de pe

Fabrício Marques

m grupo de pesquisadores dos Estados Unidos e do Reino Unido vai propor até o início de 2015 um modelo para identificar com mais precisão a contribuição de cada um dos autores de um artigo científico. A iniciativa vem sendo desenvolvida há dois anos e busca criar uma classificação capaz de informar qual foi o papel de cada autor até mesmo em papers com centenas de assinaturas. O esboço dessa taxonomia, a ser utilizada no momento em que um manuscrito é submetido on-line a uma revista científica, está em processo de avaliação. Ele estabelece 14 formas diferentes de participar da elaboração de um artigo (ver quadro), como o desenho intelectual do trabalho e as diversas etapas de realização do experimento e da redação. Os tópicos mais polêmicos são os que propõem crédito para categorias não envolvidas intelectualmente na produção do artigo, como o gestor do projeto de pesquisa, o curador dos dados (que cuida das fontes de informação coletadas e as torna acessíveis para uso posterior) e o responsável pela obtenção de financiamento.

1

Este esboço preliminar foi testado pelos autores principais de 230 artigos do campo das ciências da vida divulgados em publicações dos grupos Nature, Elsevier e PLoS e nos periódicos Science e eLife. Cerca de 85% consideraram a classificação fácil de usar. Para 45%, a acurácia na identificação dos autores é maior que a dos métodos usados atualmente, enquanto para 37% a precisão é equivalente. Alguns autores sugeriram o desdobramento de certos tópicos, outros propuseram que as atividades sem vínculo intelectual com o artigo sejam tratadas fora da classificação. Nos próximos meses, os pesquisadores dedicados à iniciativa, ligados à Universidade Harvard e à organização britânica de apoio à pesquisa biomédica Wellcome Trust, prometem refinar a classificação, adaptando-a às necessidades de outras áreas do conhecimento. Tópicos do esboço poderão ser acrescentados e outros descartados. Um workshop para discutir as mudanças está programado para o final do ano. “Certamente há muito trabalho ainda a fazer”, afirma Liz Allen, diretora de avaliação do Wellcome Trust, uma das

2

Metodologia Desenvolvimento ou desenho de metodologias e criação de modelos


Para identificar a contribuição de cada um Classificação proposta pela Universidade Harvard e o Wellcome Trust sugere 14 tipos possíveis de contribuições feitas por autores de artigos científicos

4

Coleta de dados Condução do processo de pesquisa, especificamente coletando dados e evidências

3

Computação

Programação, desenvolvimento de

softwares, implement ação de códigos e de algoritmos de apoio

5

Re alização de

ilustrações nelson provazi

experimentos Condução do processo de pesquisa, especificame nte realizando experiment os

pesquisadoras envolvidas na empreitada, ao relatar o esforço num artigo publicado em abril na revista Nature. O número crescente de autores em papers, resultado da intensificação das colaborações de pesquisa, é o principal motivador da iniciativa. Segundo dados apresentados por Liz Allen, entre 2006 e 2010, o número médio de autores de artigos vinculados a estudos patrocinados pelo Wellcome Trust cresceu de 10,21 para 28,82 na área de genética e de 6,28 para 8,32 no cômputo geral. “Em estudos multicêntricos, as pesquisas envolvem contribuições de dezenas de pesquisadores e a autoria fica bastante disseminada. Em certos casos, as contribuições dos diversos grupos de pesquisa envolvidos são muito diferentes e a lista de autores não consegue mostrar isso”, diz Abel Packer, diretor do programa SciELO/FAPESP. Mais transparência, ele observa, é essencial para que financiadores e comunidade científica consigam identificar quem fez o que numa pesquisa realizada a várias mãos. Há outros problemas que a taxonomia busca contornar, como a falta de padrão entre as disciplinas para produzir

a lista de autores de um artigo (algumas colocam o autor principal em primeiro lugar, outras em último, algumas adotam ordem alfabética). Problemas relacionados à autoria de papers preocupam cada vez mais os editores de revistas científicas e há tempos muitos deles passaram a exigir que seja declarada a contribuição de cada um dos autores nos artigos submetidos à publicação. De acordo com Sigmar de Mello Rode, presidente da Associação Brasileira de Editores Científicos (Abec) e editor executivo da revista Brazilian Oral Research, a pressão para publicar produziu casos de pesquisadores que declaram ser autores de mais de 30 artigos por ano, o que sugere a não participação ou participação superficial na maioria dos projetos, ele diz. “Muita gente confunde a formação de grupos de pesquisa, algo desejado para se trabalhar em direção a um objetivo, com fábricas de trabalho, onde cada um faz uma coisa e prestigia os outros do grupo. Isso realmente multiplica a produção científica de cada um, já que no período suficiente para se realizar um trabalho publicam-se

6

Análise formal Aplicação de técnicas as estatísticas, matemátic r lisa ana a par e outras os dados obtidos

pESQUISA FAPESP 221  z  33


7

Recursos teriais Fornecimento de ma , tes gen de estudo, rea ntos, me ipa equ amostras e para tes ien pac seleção de mais ani de rta ofe estudo e io tór de labora

vários. Há casos de autorias múltiplas até em revisões de literatura, nas quais não se justifica a presença de mais de um ou dois autores”, afirma Rode, que é professor da Faculdade de Odontologia de São José dos Campos, da Universidade Estadual Paulista (Unesp). “A declaração de autoria se transformou numa fonte de problemas éticos na comunicação científica, seja pela inclusão de autores que pouco ou nada contribuíram, seja por autorias fantasmas”, diz Abel Packer.

D

e acordo com os critérios do International Committee of Medical Journals Editors, para ser autor de um trabalho é preciso preencher três condições: contribuir substancialmente para a concepção e o desenho do trabalho científico, a aquisição, a interpretação e a análise dos dados; participar da redação e da revisão crítica do trabalho, com real contribuição intelectual para seu conteúdo; e aprovação final do conteúdo a ser publicado. “Todos aqueles que não se qualificam como autores deverão ser citados nos agradecimentos, incluindo sua participação no trabalho, na tradução, aquisição de fundos, análises técnicas e estatísticas, empréstimo de material, entre outras”, diz Sigmar Rode. O Código de boas práticas científicas lançado pela FAPESP em 2011 estabelece diretrizes semelhantes: “Em um trabalho científico devem ser indicados como seus autores todos e apenas os pesquisadores que, tendo concordado expressamente com essa indicação, tenham dado contribuições intelectuais diretas e substanciais para a concepção ou realização da pesquisa cujos resultados são nele apresentados”, informa. Segundo o código, “em particular, a cessão de recursos infraestruturais ou financeiros para a realização de uma pesquisa, como laboratórios, equipamentos, insumos, materiais, recursos humanos, apoio institucional etc., não é condição suficiente para uma indicação de autoria de trabalho resultante dessa pesquisa”. 34  z  julho DE 2014

8

dados Curadoria de s para da lta Atividades vo nte me da ua anotar adeq a, uis sq pe os dados de -los além de preservá ão aç para reutiliz s em outros estudo

9

esboço do artigo

Preparação, criação e/ou apresentação

do artigo científico, especificamente escrevendo o seu

primeiro esboço

Para Joaquim Nóbrega, editor do Journal of the Brazilian Chemical Society, embora a ciência seja cada vez mais uma atividade cooperativa e coletiva, há critérios que precisam ser preservados. “Mesmo entendendo que a produção de um manuscrito envolve múltiplas etapas e tarefas, não podemos nos desobrigar de aspectos éticos que historicamente proporcionaram que a ciência atingisse amplo reconhecimento social”, afirma. Entre as regras adotadas pela publicação, estabeleceu-se que o autor que submete um manuscrito é responsável pela inclusão de todos os pesquisadores efetivamente responsáveis pelo estudo. “Verificamos a atribuição de autoria do manuscrito submetido e do manuscrito revisado. Caso exista qualquer alteração ou inserção de novos autores, solicita-se uma justificativa com assinatura de todos os autores detalhando o processo de revisão e a contribuição de cada autor para o manuscrito. Situações não devidamente esclarecidas implicarão rejeição do manuscrito revisado”, afirma Nóbrega. A nova taxonomia proposta pelo grupo de Harvard e do Wellcome Trust é mais abrangente e, de certa forma, substitui o conceito de“autoria” pelo de “contribuição”. “Ela dá um reconhecimento mais preciso da participação individual dos autores e estabelece como contribuição tópicos que não estão previstos nos critérios atuais”, afirma Abel Packer. Segundo ele, a adoção de uma nova classificação é viável e desejável, pois se encaixa no esforço de tornar mais transparente o processo de produção e comunicação da ciência. Mas Packer observa que haverá uma série de arestas a resolver. Uma delas pertence ao campo dos direitos autorais, que seriam estendidos a um grupo maior de pesquisadores do que o previsto hoje, se o esboço proposto atualmente prevalecer e for aceito pelas revistas científicas. Outro desafio será criar indicadores que levem em conta a nova taxonomia. “Não adianta adotar

0

Re visão crític a

Preparação, criação e/ou apresentação do artigo , especificamente fazend o revisão crítica ou tecendo comentários sobre seu conteúdo


w

Obtenção de

uma nova classificação e seguir usando o índice h como parâmetro”, diz Packer, referindo-se ao indicador que relaciona quantidade e qualidade da produção científica de um autor (número de artigos publicados e suas citações), mas não leva em conta se ele é o autor principal ou teve participação secundária.

financiamento Responsabilidade pela conquista do apoio financeiro para o projeto que resultou no trabalho publicado

S

egundo os responsáveis pela taxonomia, os editores de periódicos seriam beneficiados, pois a classificação poderia poupar o tempo hoje gasto na tarefa de checar qual foi a participação de cada autor e na administração de disputas entre autores. Para Rafael Loyola, editor-chefe da revista Natureza & Conservação, vinculada à Associação Brasileira de Ciência Ecológica e Conservação, a serventia para os editores é relativa. “Não temos como averiguar se o que está sendo informado é verdade. Acreditamos na boa-fé dos autores”, diz. Para ele, quem mais sairá ganhando são os próprios pesquisadores. “Com a taxonomia, a tarefa de organizar uma lista de assinaturas pode ficar mais simples. Do mesmo modo, seria mais fácil para o grupo de autores enxergar a contribuição individual de cada um, o que poderia evitar disputas durante a negociação sobre a posição de cada um na lista”, afirma. Segundo Loyola, não é comum que os editores da Natureza & Conservação tenham problemas com atribuição de autoria, mas eles às vezes acontecem. “Certa vez, os autores de um artigo que já havia sido revisto várias vezes e estava prestes a ser aceito para publicação fizeram um pedido inusitado: queriam que mais um nome fosse incluído na lista de autores. Perguntamos qual era a contribuição do autor e eles nos informaram que se tratava do chefe do laboratório e que eles cometeram o erro de enviar o artigo sem conhecimento dele. Só aceitamos o artigo quando asseguramos que o novo autor tinha de fato participado da pesquisa e exigimos que ele acrescen-

-

visualiz ação de dados ão e/ou Preparação, criaç artigo, apresentação do camente cuidando especifi dados de da visualização

q

Administraçã

do projeto

o

Coordenação ou gestão das atividades de

pesquisa que re sultaram no trabalho publi cado

=

Supervisão Responsabilidade pela supervisão

da pesquisa o e da orquestraçã do projeto

tasse seus comentários ao manuscrito e concordasse com a versão final”, afirma. Charles Pessanha, editor emérito da revista Dados, vinculada ao Instituto de Estudos Sociais e Políticos da Universidade do Estado do Rio de Janeiro, passou por experiência semelhante. Um artigo que já havia passado pelos revisores e fora devolvido para a autora com pedido de mudanças foi ressubmetido – com um autor a mais. “Avisamos a autora que o procedimento era irregular e que, daquela forma, o artigo não seria publicado. Mas ela conseguiu mostrar que o segundo autor havia contribuído muito na reelaboração do artigo. Concluímos que estava sendo honesta e não deveria ser punida por isso. E publicamos o artigo”, conta Pessanha, professor do Instituto de Economia da Universidade Federal do Rio de Janeiro. Para ele, a proposta de nova taxonomia segue um caminho inexorável, que é o de dar crédito para todos os que participam. “A saída é semelhante à adotada pelos estúdios de cinema. Há tanta gente envolvida num filme que é preciso dar o crédito específico a todos eles no final do filme”, afirma. “O processo de produção científica exige um número crescente de habilidades e, com isso, a participação de novos atores. É essencial que todos eles tenham crédito, porque cada um precisa ser reconhecido pelo que fez.” Ele avalia, contudo, que dar crédito a todos não pode conspurcar o conceito de autoria, que é bem mais restrito. “É preciso encontrar um meio de reconhecer a contribuição de todos. Mas não dá para considerar como autor quem não participou da concepção do estudo, do delineamento da pesquisa e da interpretação e análise dos dados. Assim como nos créditos cinematográficos, os produtores são reconhecidos – e até recebem seus próprios prêmios, como outros profissionais envolvidos. O fato de obter financiamento para uma pesquisa não transforma o pesquisador automaticamente em um autor. É preciso participar da concepção e elaboração acadêmica do trabalho.” n pESQUISA FAPESP 221  z  35


36  z  julho DE 2014


infraestrutura y

Qualidade compartilhada Facilities garantem acesso a equipamentos de última geração para múltiplos usuários e modelo avança no estado de São Paulo Bruno de Pierro Fotos 

Eduardo Cesar

E

Os serviços de microscopia confocal e de sequenciamento genético estão entre os mais procurados nas facilities de São Paulo

m agosto do ano passado, a Universidade de São Paulo (USP) inaugurou um laboratório que reúne, num mesmo ambiente, um conjunto de equipamentos modernos para uso compartilhado em pesquisas em biologia celular e genômica, nos moldes das research facilities existentes em universidades no exterior. Espalhado por 10 salas de um dos prédios do Instituto de Ciências Biomédicas, o Centro de Facilidades de Apoio à Pesquisa da USP (Cefap-USP) disponibiliza a pesquisadores de todo o país serviços de sequenciamento de nova geração, microscopia para estudo de células vivas, separação celular, espectrometria de massa para identificação de macromoléculas, entre outros. Em um ano de atividade, a facility já recebeu cerca de 80 grupos de pesquisa e apoiou estudos em temas como genes de reparo de DNA, busca de drogas contra a malária e plasticidade muscular, entre muitos outros. A maioria dos usuários veio da USP, das universidades Federal de São Paulo (Unifesp), Estadual Paulista (Unesp) e Estadual de Campinas (Unicamp). O Cefap recebeu investimento de cerca de US$ 4 milhões da FAPESP na compra dos equipamentos, enquanto a estrutura do laboratório e a contratação de funcionários couberam à USP. Também houve apoio da própria USP e da Coordenação de Pessoal de Nível Superior (Capes) para a compra de equipamentos. Para obter os serviços de um dos 15 equipamentos do laboratório, os pesquisadores precisam verificar a disponi­ bilidade e agendar, no site do Cefap, a data e o horário de uso. pESQUISA FAPESP 221  z  37


1

Um dos serviços mais procurados é o de microscopia confocal, utilizado por 51 grupos de pesquisa em mais de 180 projetos. Trata-se de uma ferramenta importante para estudos em biologia celular, pois ajuda a localizar proteínas no interior das células e a visualizar a interação entre proteínas. Há dois equipamentos disponíveis neste serviço: um microscópio Zeiss LSM 780-NLO, que utiliza laser para gerar imagens de fluorescência em células, e o InCell Analyzer 2200 GE, próprio para pesquisas que necessitam de uma grande quantidade de imagens. “A ideia por trás dos equipamentos multiusuários é facilitar o acesso a ferramentas de última geração e de difícil aquisição”, diz Carlos Menck, professor do ICB-USP e presidente do Cefap.

E

xemplos como o do Cefap vêm se tornando frequentes. No estado de São Paulo, aproximadamente 50 facilities foram criadas a partir de 2009, após o lançamento do segundo edital do Programa Equipamentos Multiusuários (EMU), estabelecido em 2005 pela FAPESP. O programa já concedeu cerca de R$ 250 milhões para compra de equipamentos de uso compartilhado. Em 2009, foram aprovados investimentos em torno de R$ 167 milhões para a aquisição de 250 equipamentos, sendo mais de 200 deles com valor superior a US$ 50 mil. O modelo das research facilities garante um acesso mais abrangente a tecnologias essenciais para realizar estudos de nível internacional, e também economiza custos, com o compartilhamento de técnicos e insumos. Em países da Europa e nos Estados Unidos, esse esquema faz parte da rotina de muitos grupos de pesquisa. No Brasil, experiências desse tipo eram encontradas em situações isoladas, que serviram de referência às iniciativas mais recentes. O principal exemplo é o Laboratório Nacional de Luz Síncrotron (LNLS), em operação desde 1997. Nele funciona a única

38  z  julho DE 2014

fonte de luz síncrotron da América Latina, usada por pesquisadores brasileiros e estrangeiros em estudos da estrutura de proteínas e de materiais. “O Programa Equipamentos Multiusuários está conseguindo, paulatinamente, estimular a cultura de facilities no estado”, avalia José Antonio Brum, professor do Instituto de Física Gleb Wataghin da Unicamp e coordenador adjunto de Programas Especiais da FAPESP. Em junho, Brum participou do primeiro Workshop on Multi-User-Equipment and Facilities, que reuniu representantes de facilities instaladas em São Paulo. Segundo ele, muitos pesquisadores ainda resistem em utilizar equipamentos alocados em laboratórios administrados por outros grupos. “Muitos gostariam de ter seu próprio equipamento”, diz. A FAPESP estimula a utilização das facilities nos projetos de pesquisa que financia, a menos que o pesquisador mostre que a aquisição de um novo equipamento é imprescindível. Alguns números apresentados pelo Laboratório Nacional de Nanotecnologia (LNNano) – que assim como o Laboratório Síncrotron é vinculado ao Centro Nacional de Pesquisa em Energia e Materiais (CNPEM), em Campinas – sugerem que diminui a resistência ao uso compartilhado. “A procura por nossos equipamentos e consultoria aumenta a cada ano”, diz Fernando Galembeck, professor aposentado do Instituto de Química da Unicamp e diretor do LNNano. Em seus cinco laboratórios – de Microscopia Eletrônica (LME), de Microfabricação (LMF), de Caracterização e Processamento de Metais (CPM), de Ciência de Superfícies (LCS) e de Metais Nanoestruturados (LMN) – já foram executados cerca de 2.700 projetos de pesquisa até 2013. Só o LME, o mais antigo do LNNano, já apoiou mais de 2 mil projetos. Em 2001, haviam sido submetidos ao LME 86 projetos. Em 2012 o número havia aumentado para 207. Esse número não aumentou nos últimos

1 Pesquisador do IQSC-USP coloca amostras para serem analisadas no espectrômetro de massas 2 Espectrometria de massas com fonte de ionização electrospray no Cefap-USP 3 Serviço de Crio Microscopia Eletrônica, no LNNano, permite a obtenção de estruturas com resolução próxima à atômica

R$250

milhões é o valor que a FAPESP concedeu para a compra de equipamentos multiusuários no âmbito do EMU


três anos, porque a utilização da capacidade instalada é de praticamente 100%. Fundado em 1999, o LME in“O EMU-FAPESP tegra o LNNano desde 2011. está conseguindo, Segundo Galembeck, as facilities cumprem um papel importante no paulatinamente, sistema de ciência e tecnologia, que é o de acelerar o andamento das pesestimular a quisas. É cada vez maior a utilização das instalações do LNNano por pescultura de quisadores que não pertencem aos facilities em São quadros da instituição: no LCS, foram 50% em 2012; 70% em 2013 e quase Paulo”, diz José 80% em maio de 2014. Nesse período, a maior parte dos usuários externos Antonio Brum veio da Unicamp (13%), Unesp (10%) e USP (9%). A maior demanda é por serviços de microscopia eletrônica e de sondas, utilizadas para a caracterização de substâncias e desenvolvimento de novos materiais em projetos acadêmicos e empresariais. A análise da estrutura de polímeros, uma das últimas etapas do doutorado de Rafael Bergamo Trinca no Instituto de Química da Unicamp, por exemplo, não poderia ter sido feita sem a ajuda de um Nanoscope III, microscópio de força atômica que fornece imagens tridimensionais da superfície de materiais em escala nanométrica. A orientadora de Trinca, a professora Maria Isabel Felisberti, sugeriu que ele procurasse o LNNano, que não apenas dispõe do equipamento como também oferece treinamento para sua utilização. “Aprendi a usar o microscópio e a obter dele os melhores resultados”, diz Trinca. Sua pesquisa, apoiada pela FAPESP, busca obter membranas biocompatíveis capazes, por exemplo, de liberar

2

fármacos a partir de certos estímulos, como o aumento de temperatura. A formação dos chamados superusuários, isto é, pesquisadores que dominam o uso de equipamentos e podem utilizá-los sem o auxílio de técnicos, é algo que o Cefap, da USP, também busca desenvolver. “Temos limitação de especialistas para trabalhar nos laboratórios. Uma solução é capacitar os usuários”, explica Menck. Mas a maior parte do trabalho realizado no centro ainda é feita pelos técnicos, que recebem amostras enviadas por pesquisadores. “A consolidação dessa cultura de facilities no país é lenta, porque, entre outros fatores, ainda não há pessoal suficiente para operar os equipamentos”, avalia Menck. “Além disso, muitos coordenadores de facilities não podem dedicar-se exclusivamente à gestão dos laboratórios, porque também lideram pesquisas e orientam alunos.”

fotos  1 e 3 nonononono

P

3

ara evitar essa situação, o Laboratório Central de Tecnologias de Alto Desempenho (LaCTAD) da Unicamp – uma facility induzida pela FAPESP e inaugurada no ano passado – criou o cargo de gerente-geral com dedicação exclusiva à administração do laboratório, ocupado pela química Sandra Krauchenco. “A gestão precisa ser profissional”, diz Paulo Arruda, professor do Instituto de Biologia da Unicamp e membro do conselho gestor do LaCTAD, criado com o objetivo de dar suporte a pesquisas em genômica, bioinformática, proteômica e biologia celular. A FAPESP investiu R$ 6 milhões na compra dos equipamentos para o laboratório, no âmbito do EMU. Para trabalhos na área de genômica, o LaCTAD conta com três sequenciadores. No campo da proteômica, um dos equipamentos realiza cromatografia líquida para análise e purificação de proteínas, e há também um calorímetro, utilizado para determinar parâmetros termodinâmicos de interações pESQUISA FAPESP 221  z  39


bioquímicas (ver Pesquisa FAPESP nº 206). Em biologia celular, o serviço mais demandado é o de microscopia confocal, que à diferença dos demais equipamentos exige a presença do usuário no momento da análise. “No caso da microscopia, o usuário é quem observa a imagem e decide qual parte da célula será observada”, explica Sandra Krauchenco. Uma peculiaridade do LaCTAD em relação a outros laboratórios é o apoio aos pesquisadores desde o planejamento e a preparação das amostras até o processamento e análise dos dados obtidos. No exterior, se o usuário não souber solicitar com propriedade o que ele quer extrair da amostra, o experimento pode dar errado, porque a facility segue à risca o que o pesquisador pede. “Aqui procuramos o pesquisador e pensamos em conjunto”, diz Arruda.

A

ntes da criação do LaCTAD, membros do conselho visitaram laboratórios nos Estados Unidos para conhecer o modelo adotado em instituições daquele país. Uma dessas facilities foi a de sequenciamento de DNA e RNA da Universidade da Carolina do Norte (UCN), coordenada por Piotr Mieczkowski. Uma das missões da facility da UCN é estimular pesquisas que desenvolvam técnicas para ser implementadas em seus serviços. Essa característica chamou a atenção da equipe do LaCTAD. “Queremos investir nessa vocação de pesquisa, para melhorar o uso de algumas técnicas e criar outras”, diz Paulo Arruda. Na palestra que realizou em São Paulo, Mieczkowski ressaltou o ritmo “industrial” com que o laboratório opera: em 2013 foram realizados 6 mil sequenciamentos. “O desenvolvimento de uma facility deve estar associado a grandes e estáveis projetos de pesquisa”, conclui Mieczkowski. Outra facility que se destaca no exterior é a da Escola de Medicina da Universidade Duke. Lá estão à disposição mais de 70 laboratórios multiusuários espalhados pelo campus. Cada um tem um site próprio, no qual o usuário pode solicitar o serviço e consultar os preços cobrados. A Faculdade de Medicina da USP também segue um modelo descentralizado, no qual os equipamentos estão disponíveis em diferentes lugares. Mas a coordenação está centralizada no programa Rede Premium de Equipamentos Multiusuários, que propicia acesso a pesquisadores da instituição e de fora dela a tecnologias da pesquisa biomédica. Um dos serviços mais procurados é o de microscopia confocal, cujo equipamento, um LSM 510 Meta, da Carl Zeiss, foi obtido com financiamento da FAPESP. Em alguns casos, a facility pode ser um ponto de encontro para estabelecer parcerias científicas. No Instituto de Química de São Carlos (IQSC), da USP, um dos equipamentos, um espectrômetro de massas de alta resolução, foi o pivô na aproximação de dois grupos de pesquisa. O equipamento foi comprado em 2013, com recursos da FAPESP, para o 40  z  julho DE 2014

grupo de Emanuel Carrilho, professor do IQSC que estuda biomarcadores para diagnóstico de câncer e de doenças como a malária. Dois professores da Faculdade de Medicina de Ribeirão Preto, da USP, Vitor Marcel Faça e José César Rosa, que também trabalham com pesquisas proteômicas em câncer, pediram abertura para usar o equipamento, já que não faziam parte da equipe original de usuários que submeteram o projeto à Fapesp. O que inicialmente era apenas prestação de serviço converteu-se em colaboração. “Vimos que tínhamos objetivos em comum”, diz Carrilho. O espectrômetro, um LTQ Orbitrap da marca Velos, custou US$ 700 mil e está acoplado a um cromatógrafo líquido de alto desempenho, usado para o isolamento de proteínas. O equipamento foi importante numa pesquisa coordenada por Daniel Rodrigues Cardoso, do IQSC-USP, em parceria com a Embrapa e a Universidade de Copenhagen, na Dinamarca. Por meio da adição de extrato de erva-mate na ração de gado, os pesquisadores chegaram a uma carne vermelha mais macia e com prazo de validade

1

maior, efeito atribuído à presença de antioxidantes no mate. O espectrômetro está sendo usado para compreender as alterações no metabolismo animal. “Analisamos amostras de carne e de mate para identificar as variações metabólicas”, diz Cardoso. O Laboratório de Caracterização Estrutural (LCE) da Universidade Federal de São Carlos (UFSCar) dedica-se ativamente à formação de microscopistas, como forma de otimizar a utilização de seus equipamentos, além de prestar serviços. “Nosso modelo é baseado na formação de microscopistas, porque não temos como disponibilizar oito horas por dia de técnicos operando cada um de nossos oito microscópios eletrônicos e de sonda”, explica Walter Botta Filho, coordenador do LCE. “Quere-

1 Técnico do LCE-UFSCar avalia imagens de nanotubos de carbono geradas por um microscópio de varredura 2 Funcionários do LaCTAD, na Unicamp, observam células da flora intestinal em um microscópio confocal


“Há limitação de especialistas nos laboratórios. Uma solução é capacitar os usuários”, diz Carlos Menck

mos que os usuários regulares dependam minimamente de auxílio para operar os equipamentos, o que flexibiliza os horários de uso”, diz. O conceito de facilities não é novo no Departamento de Engenharia de Materiais, onde o LCE é abrigado. A partir de 1976, o laboratório de microscopia e raio X da unidade passou a ser aberto a pesquisadores de outras instituições, o que serviu de base para, 10 anos depois, o LCE sistematizar o modelo para outros serviços. Entre 2012 e maio de 2014, 1.018 pesquisadores utilizaram a facility e 419 deles foram habilitados a operar equipamentos sozinhos. Botta conta que no momento do agendamento para utilização de um equipamento o usuário pode optar por operá-lo, após passar pelo treinamento, ou solicitar o auxílio de um técnico. De todo modo, é cobrado o tempo de utilização do equipamento. José Antonio Brum acredita que vários modelos de facilities vão coexistir em São Paulo. “Cada laboratório tem suas próprias dificuldades e demandas, o que resulta numa variedade de modelos. Isso não é necessariamente ruim”, diz. Outro desafio é aprender a gerenciar recursos. Segundo ele, muitos laboratórios não conseguem estimar corretamente os custos de manutenção e mão de obra e depreciação dos equipamentos, o que prejudica a definição dos preços cobrados pelos ser-

2

viços. O workshop realizado pela FAPESP discutiu as circunstâncias em que as facilities devem cobrar pelo uso de equipamentos. “O ideal é cobrar sempre”, defende Menck, do Cefap. “É uma forma de valorizar o serviço. O problema é que a cultura da pesquisa brasileira não vai nessa direção”, completa. No Cefap, o preço para a utilização do microscópio confocal é de R$ 200 para projetos patrocinados por órgãos governamentais e de R$ 275 para os financiados por outras fontes. Menck diz que, em geral, o valor foi definido levando em conta principalmente os gastos com insumos. Os recursos obtidos pela cobrança dos usuários não são suficientes para pagar contratos de manutenção de algumas máquinas, que chegam a custar R$ 150 mil por ano cada uma. “Se incluíssemos outros gastos, o valor cobrado não seria competitivo”, diz Menck. A situação é diferente no LNNano, onde os serviços não são cobrados de pesquisadores. O laboratório é vinculado ao Ministério da Ciência, Tecnologia e Inovação, que todos os anos repassa recursos para cobrir gastos com manutenção de equipamentos, salários e insumos. “Cobramos apenas de empresas, que nos procuram em projetos de pesquisa e desenvolvimento (P&D) e prestação de serviços”, diz Fernando Galembeck. Nem sempre as facilities oferecem preços competitivos. “Quando o pesquisador brasileiro tem colaboração no exterior, ele consegue pagar o preço de usuário interno na facility da universidade parceira, que costuma ser mais barato do que o daqui”, explica Sandra Krauchenco, do LaCTAD. “Quando o usuário não tem colaboração internacional, aí conseguimos competir de igual para igual”, diz. n pESQUISA FAPESP 221  z  41


educação y

Aprendizes de cientistas Projetos de alunos de escolas públicas despontam entre os melhores apresentados em feiras de ciência

42  z  julho DE 2014

Q

uando cursava o ensino técnico, o gaúcho Vinícius Guilherme Müller procurava um tema para seu projeto de conclusão do curso de eletrônica e decidiu resgatar uma pergunta que fazia desde os sete anos de idade, época em que aprendeu a tocar piano: “Como fazer um surdo sentir a música?”. Decidiu investir em um tipo de dispositivo capaz de oferecer a pessoas com deficiência auditiva uma sensação parecida com a de ouvir música ou tocar um instrumento. Ele, que na época era aluno da Fundação Escola Técnica Liberato Salzano Vieira da Cunha, em Novo Hamburgo (RS), decidiu criar um equipamento capaz de interpretar notas musicais recebidas de um instrumento e transformá-las em vibrações transmitidas para a pele das pessoas. O dispositivo pode ser conectado em instrumentos musicais ou no computador e permitir aos surdos tanto a possibilidade de “ouvir” quanto de produzir música. Em 2011, o projeto foi um dos destaques da Feira Brasileira de Ciências e Engenharia (Febrace),


fotos  léo ramos

Movimentação de estudantes do ensino médio durante a Febrace, que neste ano reuniu 757 alunos de mais de 200 escolas públicas e particulares de todo o país

o que lhe rendeu uma indicação para participar da Feira Internacional de Ciências e Engenharia (Isef, na sigla em inglês), realizada desde 1950 nos Estados Unidos. Em Los Angeles, Müller conquistou o terceiro lugar da premiação de engenharia elétrica, feito que o fez olhar para a pesquisa com outros olhos. “Tive contato com jovens de todos os cantos do mundo, apaixonados pela pesquisa, criando coisas espetaculares em todas as áreas do conhecimento”, diz Müller, hoje estudante de engenharia elétrica da Universidade Federal do Rio Grande do Sul, que no início de 2013 se mudou para a França, onde participa de um programa de dupla diplomação da École Centrale Paris. Na última década, o envolvimento de alunos de escolas públicas com a iniciação científica alcançou um novo patamar, fenômeno observado principalmente pela presença de projetos que ganharam destaque em feiras de ciência no Brasil e no exterior. Um termômetro dessa evolução é a Isef, uma das principais feiras de ciência do mundo, que reúne mais de 1.500 alunos de 70 países. No ano passado, dos 10 estudantes brasileiros premiados na feira, cinco eram de escolas públicas regulares. “Isso mostra que a diferença entre os trabalhos apresentados por alunos da rede pública e da particular está diminuindo”, diz Roseli de Deus Lopes, professora da Escola Politécnica da USP e coordenadora da Febrace. Segundo ela, professores das escolas públicas perceberam que mesmo com poucos recursos é possível estimular a capacidade de investigação e observação dos estudantes. Um exemplo dessa mudança de percepção foi a segunda edição da Mostra Paulista de Ciências e Engenharia (MOP), realizada em janeiro de 2013, que conseguiu atrair pESQUISA FAPESP 221  z  43


1

mais estudantes e professores orientadores de escolas públicas estaduais de São Paulo para o circuito das feiras de ciências investigativas – um público tradicionalmente distante dessas iniciativas. “Isso está mudando e a prova é que muitos dos alunos que se destacaram na Febrace vieram de escolas públicas e chegaram a ter reconhecimento no exterior”, diz Roseli. O exemplo da estudante de biologia Nayrob Pereira, 18 anos, também espelha esse movimento. No ano passado, ela recebeu um prêmio da Patent and Trademark

Gabriel Nascimento e o colega Cleiton dos Santos apresentaram o cão-guia robótico, que identifica obstáculos e avisa o dono

Office Society, organização norte-americana fundada em 1917 que atua na área de propriedade intelectual, e conquistou outro na Isef com uma pesquisa sobre uma substância antibacteriana presente no veneno do escorpião. O interesse de Nayrob pelo tema surgiu no ensino médio depois de uma visita ao Instituto Butantan, numa atividade da Semana Nacional de Ciência e Tecnologia em 2011, quando era aluna da Escola Estadual Alberto Torres. Ao deparar com aranhas e escorpiões, a estudante sofreu uma crise de pânico.

Após ser selecionada pela escola para concorrer a uma bolsa de iniciação científica jr. do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) oferecida pelo Instituto Butantan, ela procurou Pedro Ismael da Silva Junior, pesquisador do Centro de Toxinas, Resposta Imune e Sinalização Celular do Instituto Butantan, que havia recebido o grupo de estudantes. “Decidi realizar o projeto no instituto como uma forma de enfrentar meu próprio medo”, diz Nayrob, que escolheu o escorpião Tytius serrulatus e seu veneno como objeto de estudo. Após procedimentos em laboratório, identificou duas frações com atividade antimicrobiana. Depois de apresentar seu trabalho na feira norte-americana em 2013, Nayrob resolveu dar continuidade ao projeto, agora como bolsista de iniciação científica na graduação – ela faz licenciatura em biologia no Instituto Federal de Educação, Ciência e Tecnologia de São Paulo. O objetivo dela é identificar novas neurotoxinas com potencial antimicrobiano presentes no veneno do escorpião. “Espero em breve publicar um artigo dessa pesquisa e em seguida passar um tempo no exterior”, diz Nayrob. O centenário Instituto Butantan tem tradição em despertar o fascínio pela ciência nos mais jovens. No caso de Ivan Lavander Cândido Ferreira, de 23 anos, estudante de biologia da USP, o interesse por aranhas nasceu dentro de casa, onde desde criança criava os animais em seu quarto. “Mas, embora eu tenha estudado em colégio particular, não houve muita

Das olimpíadas a Yale O ambiente de competição

Aeronáutica (ITA), do Instituto

principalmente filosofia”, diz

próprio de olimpíadas e feiras de

Militar de Engenharia (IME) e

Valle, que pretende cursar

ciência foi um dos fatores que

o da Escola Politécnica da USP,

física. Na universidade

levaram Luis Fernando Machado

e ao ser aceito em duas das

norte-americana, terá dois anos

Poletti Valle a decidir, aos

mais prestigiadas universidades

para decidir qual curso irá

17 anos, que seguirá na carreira

do mundo, Yale e Columbia.

fazer. Nesse período, poderá

de pesquisador. “Tudo o que

Valle escolheu a Poli-USP, mas

acompanhar disciplinas em

sei de ciência é porque estudei

em agosto muda-se para New

diferentes áreas, como história

para olimpíadas no ensino

Haven, Estados Unidos, onde

e matemática. Valle não chegou

experimental. Foi após esse

médio”, diz Valle. No começo do

está sediada a Universidade

a realizar um projeto de

torneio, do qual participou da

ano, ele chamou atenção ao ser

Yale. “O curso de engenharia

iniciação científica, mas destaca

final brasileira, que confirmou

aprovado nos vestibulares mais

da USP é muito bom, mas

como um marco na sua vida a

seu gosto pela pesquisa básica

concorridos do país, entre eles

muito técnico. Eu gosto de ter

participação na IYPT, uma

e a necessidade de desenvolver

o do Instituto Tecnológico de

contato com outras áreas,

competição mundial de física

sua carreira no exterior.

44  z  julho DE 2014

3

Luis Fernando chegou a receber doações pela internet para cobrir custos na nova universidade


A estudante Stephani Resende, do Rio de Janeiro, e o chuveiro Ecoderme: economia de água na temperatura certa

2

fotos  1 e 2 léo ramos  3 eduardo cesar

atenção para minhas ideias, razão pela qual eu busquei apoio no Butantan”, explica Ferreira, que em 2009 descobriu a presença de antibióticos em ovos de aranhas. Orientado também por Pedro Ismael, no Butantan, Ferreira identificou quatro compostos com atividade antibiótica contra algumas bactérias, entre elas o Staphylococcus aureus, responsável por vários tipos de infecção. O feito rendeu ao estudante a participação na Febrace, o quarto lugar num prêmio concedido pela American Society for Microbiology, o segundo lugar na categoria Microbiologia da Isef em 2009 e uma premiação do Massachusetts Institute of Technology (MIT). A exposição internacional estimulou Ferreira a buscar novos horizontes. Em 2010, logo após passar no vestibular da USP, conseguiu uma vaga de estágio no Weizmann Institute of Sciences, em Israel. “O formato de algumas feiras e competições, pelas quais passei no ensino médio, visa estimular a curiosidade e a criatividade do aluno participante, fazendo com que os estudantes sejam protagonistas e não somente espectadores na solução de problemas contemporâneos por meio da inovação. Foi isso que me impulsionou para a pesquisa básica", diz Ferreira. Inclusão

Na avaliação de Roseli de Deus Lopes, as mais de 70 feiras de ciência, entre estaduais, municipais e locais filiadas à Febrace, estão conseguindo incluir mais estudantes e professores da rede pública. Parte dessa conquista, diz ela, deve-se aos programas de iniciação científica no ensi-

“A diferença entre trabalhos da rede pública e da particular está diminuindo”, diz Roseli de Deus Lopes

no médio, que têm conseguido impulsionar o intercâmbio entre colégios da rede pública e universidades. Nas principais universidades do estado de São Paulo, o número de alunos selecionados e de projetos aumentou significativamente. Em 2013, a Unicamp disponibilizou 300 vagas para adolescentes de escolas do ensino médio de Campinas e região, um aumento de 66% em relação a 2010. A USP, por sua vez, ofereceu no ano passado 512 vagas no seu Programa de Pré-iniciação Científica (Pré-IC), 97 a mais em comparação a 2012 (ver Pesquisa FAPESP nº 207). Outro fator destacado por Roseli é o próprio empenho da Febrace em aumentar o número de escolas participantes. Na primeira edição da feira, em 2003, participaram 62 escolas; em 2008, o número havia aumentado para 164 e, em 2014, chegou a 212. “Quando uma região não tem bom desempenho, queremos saber a causa. Este ano, visitaremos o Acre, que na última edição da feira não teve projetos selecionados", diz Roseli.

Alguns dos 331 projetos expostos na Febrace deste ano mostram que as chances de sucesso em feiras nacionais e internacionais seguem palpáveis. Um deles, elaborado por alunos do ensino médio da Escola Estadual Clóvis Borges Miguel, no Espírito Santo, apresentou um cão-guia robótico que se locomove por comando de voz. “No Brasil existem cerca de 2 milhões de pessoas com deficiência visual. Pensamos num equipamento que pudesse ajudá-las”, conta Gabriel Nascimento de Oliveira, um dos autores do projeto. Além de exercer as funções de um cão-guia, o robô consegue identificar obstáculos e avisar o dono. O projeto foi desenvolvido em parceria com o Insti­ tuto Braille e teve um custo de R$ 1.500. O protótipo apresentado na feira está em fase de testes e a ideia é que possa ser comercializado. Outro projeto que ganhou destaque foi o chuveiro Ecoderme, desenvolvido pela aluna Stephani Marins Resende, da Escola Técnica Henrique Lage, do Rio de Janeiro. Trata-se de um dispositivo que, acoplado ao chuveiro elétrico, controla a temperatura e a duração do banho, alertando o usuário com uma luz vermelha quando o banho já passou dos cinco minutos ou supera os 37ºC. “O banho ideal não pode passar de 10 minutos de duração nem deve ser muito quente”, diz Stephani, que lembra que 15 minutos de banho consomem, em média, 130 litros d'água. Ela explica que o dispositivo serve para educar as pessoas, por isso não corta o fluxo da água. Além de evitar o desperdício, busca evitar que a água muito quente prejudique a saúde da pele. O trabalho de Francisco Daniel Adriano e Francisco Mairton Lima, alunos da Escola Estadual de Educação Profissional Júlio França, no Ceará, chamou a atenção dos avaliadores da Febrace pelo bom nível, comparável ao de um projeto universitário. Eles verificaram que o croatá, um fruto da família do abacaxi encontrado no Nordeste, tem em sua composição uma boa quantidade de uma substância chamada bromelina. “A bromelina é uma enzima com propriedades antibacterianas e antifúngicas”, diz Lima. Os estudantes pretendem agora realizar espectrometria de massas e o teste de toxidade para aferir se a bromelina pode ser uma alternativa no desenvolvimento de medicamentos. n Bruno de Pierro pESQUISA FAPESP 221  z  45


internet y

Retuíte ou pereça Estudo indica que o Twitter é a rede social mais usada para divulgar artigos científicos de revistas brasileiras

A

biblioteca eletrônica SciELO, que reúne quase 300 revistas científicas brasileiras, foi alvo de um estudo pioneiro para avaliar a repercussão de seus artigos em sites, blogs e redes sociais, entre outros meios eletrônicos. O estudo, apresentado no mês passado numa conferência sobre webscience pelo argentino Juan Pablo Alperin, pesquisador da Escola de Educação da Universidade Stanford, chegou a duas conclusões importantes. A primeira: a disseminação da ciência na internet e nas redes sociais parece ter alcance ainda restrito no Brasil. A segunda: apesar da penetração limitada, o serviço de microblogs Twitter foi a rede social que mais registrou menções e recomendações aos artigos vinculados à SciELO. Foram analisados 21.560 artigos publicados pelas revistas da SciELO em 2013. Quase 1,3 mil papers, o equivalente a 6,03% do total, foram mencionados nos posts de 144 caracteres do Twitter. O Facebook, que tem cinco vezes mais usuários ativos que o Twitter, apareceu em segundo lugar no estudo de Alperin, com menções a 2,81% dos artigos da SciELO. Segundo Alperin, é possível

46  z  julho DE 2014

que os números do Facebook sejam algo maiores, porque só foram computadas as mensagens em perfis públicos da rede social. “Links em grupos fechados, por exemplo, não puderam ser rastreados”, diz o pesquisador. Os dados foram obtidos por meio da empresa Altmetric, que oferece ferramentas para monitorar referências na internet a pessoas e corporações, e também a artigos científicos. Outros sites e redes sociais tiveram desempenho insignificante. A rede social Google+, vinculada ao Google, e blogs científicos mencionaram menos de 0,1% dos papers. Na rede social LinkedIn, a mais importante do mundo corporativo, ou na enciclopédia Wikipedia, nenhuma menção aos artigos foi observada. O trabalho, porém, não avaliou o desempenho de uma ferramenta virtual bastante utilizada pelos pesquisadores. Trata-se da Mendeley, que surgiu como um software organizador de referências bibliográficas, mas se tornou uma relevante rede social de cientistas, por meio da qual compartilham artigos interessantes com colegas e alunos. O estudo de Alperin pertence a um campo recente da bibliometria chamado “altmetria”, numa referência a métricas

alternativas ao uso exclusivo de citações. Proposta pela primeira vez em 2010, a altmetria busca medir a influência da produção científica por meio da análise de menções em sites e redes sociais, downloads ou retuítes. Estudos semelhantes feitos em bases de dados internacionais sugerem que a repercussão dos documentos científicos de bases de dados de países desenvolvidos supera a observada pelo trabalho de Alperin. Um artigo publicado em 2013 no Journal of the Association for Information Science and Technology mostrou que foram tuitados pelo menos uma vez 9,4% dos mais de 1,4 milhão de artigos da área de ciências da vida disponíveis simultaneamente nas bases de dados PubMed, a mais importante da área biomédica, e Web of Science, da empresa Thomson Reuters, entre 2010 e 2012. Alperin enxerga algumas explicações para a diferença. A primeira é que, nos países desenvolvidos, há relativamente mais pessoas conectadas à internet. “Em segundo lugar, estou realizando um estudo que sugere que cerca de 50% do uso da SciELO vem de estudantes. Talvez eles não sejam muito propensos a compartilhar artigos em


redes. Por fim, tenho a impressão de que os pesquisadores latino-americanos ainda não adotaram as redes sociais como ferramentas de trabalho como os colegas de outros países”, acredita.

ilustraçãO  zé vicente

plataforma lattes

A emergência do Twitter como rede social para a disseminação da produção científica é observada por blogueiros e pesquisadores familiarizados com esse universo. “Há cada vez mais cientistas, principalmente os mais jovens, com perfis no Twitter e é comum que eles usem a rede social para se comunicar com colegas e recomendar artigos”, diz o biólogo Atila Iamarino, cocriador da rede de blogs científicos ScienceBlogs Brasil. Atualmente fazendo pós-doutorado em microbiologia na Universidade Yale, com bolsa da FAPESP, Iamarino observa que, nos Estados Unidos, muitos pesquisadores utilizam a rede profissional LinkedIn para divulgar seus artigos, porque ela também se transformou numa plataforma de currículos. “No Brasil o LinkedIn parece não ser popular entre os pesquisadores porque os nossos currículos estão na Plataforma Lattes”, afirma.

Uma vantagem que pode ajudar a explicar a preferência dos pesquisadores pelo Twitter, observa Iamarino, é que a rede de microblogs permite efetivamente divulgar uma informação para todos os seguidores, o que não acontece com o Facebook, que em geral divulga para um pequeno quinhão dos “amigos”. “Se eu publico algo no Twitter, sei que todos os meus contatos vão ter acesso ao meu post. No Facebook, não sei quantos vão receber”, afirma. É certo que a emergência das redes sociais ocupou um espaço na divulgação científica que anteriormente pertencia aos blogs. “Hoje os blogs contêm textos mais profundos e elaborados, que são lidos e comentados por um público interessado. O grande público está mesmo no Facebook e no Twitter”, afirma Iamarino. Mas até que ponto a repercussão em sites e redes sociais pode se comparar ao impacto tradicionalmente medido por citações? A resposta ainda está em construção, mas indica que a altmetria, longe de substituir medidas como os fatores de impacto ou o índice h, desponta como um método complementar de mensurar a repercussão da produção científica e de

monitorar a forma como artigos científicos se disseminam e são discutidos por pesquisadores e o público leigo imediatamente depois de sua divulgação. Em artigo publicado em 2012 no Journal of Medical Internet Research, Gunther Eysenbach, pesquisador do Centre for Global eHealth Innovation, do Canadá, mostrou uma correlação entre artigos científicos que tiveram uma grande quantidade de tuítes nos três primeiros dias após a sua publicação e aqueles altamente citados. O recorte da pesquisa, contudo, foi restrito: a análise limitou-se a 286 artigos do próprio Journal of Medical Internet Research entre 2008 e 2011. “Há muitos artigos altamente citados que não repercutiram nas redes sociais, assim como existem artigos muito compartilhados, como os que tratam de temas políticos ou ideológicos de interesse dos pesquisadores, que não se convertem depois em citações”, afirma Iamarino. “Da mesma forma, existe uma variedade de comportamento entre os vários campos do conhecimento e o que se vê claramente entre os pesquisadores das ciências da vida não se reproduz nos grupos de outras disciplinas”, diz. n Fabrício Marques pESQUISA FAPESP 221  z  47


ciência  ASTRONOMIA y

Por que Marte não cresceu Teoria proposta por pesquisadores brasileiros explica o tamanho do planeta vermelho Igor Zolnerkevic

Pesos e medidas Os quatro planetas rochosos e mais próximos do Sol, além do cinturão de asteroides e do gigante Júpiter = massa da Terra = 5,972 × 1024 kg UA = unidade astronômica = distância média entre o Sol e a Terra = 149.597.871 km

Sol 333 mil Mercúrio

Vênus

Terra

Marte

Cinturão de asteroides

0,055

0,815

1

0,107

Objetos com dimensões variadas,

0,4 UA

0,4 UA

1 UA

1,5 UA

de grãos de poeira a 0,00015 de 2,3 UA a 3,3 UA

Júpiter 318 5,2 UA


Peso leve: com nome do deus romano da guerra, Marte, diferentemente do esperado, tem 10% da massa da Terra

infográfico ana paula campos  ilustraçãO guilherme lepca imagem nasa

S

e os romanos antigos soubessem o tamanho real do planeta Marte, talvez não o tivessem batizado com o nome de seu deus da guerra. Pois Marte estaria mais para um guerreiro-anão do que para um gigante, caso seu corpo guardasse uma proporção acurada com as dimensões do planeta de mesmo nome. Marte é o segundo menor planeta do sistema solar, com um décimo da massa da Terra. E o motivo de sua pequenez é uma das principais questões em aberto para os astrônomos e os geofísicos que estudam a formação dos planetas solares. Especialistas em mecânica celeste da Universidade Estadual Paulista (Unesp), entretanto, acreditam ter finalmente encontrado uma solução satisfatória para o problema. Simulações em computador da formação do sistema solar já explicaram a posição e as propriedades físicas de muitos dos planetas e demais corpos celestes que giram em torno do Sol. Marte, no entanto, ainda está entre os corpos cuja origem é um mistério. De acordo com essas simulações, a massa do planeta vermelho deveria ser tão grande quanto a da Terra ou de Vênus, que são semelhantes. Alguns pesquisadores já propuseram teorias para resolver a disparidade. A principal delas, conhecida como cenário do grand tack, assume que uma série de eventos pouco prováveis durante a movimentação dos planetas no início do sistema solar, cerca de 4 bilhões de anos atrás, gerou condições favoráveis à formação de um planeta pESQUISA FAPESP 221  z  49


Disco original

Os astrônomos acreditam que já conhecem bem a história da origem do sistema solar, embora faltem detalhes a serem preenchidos. O Sol, como muitas outras estrelas, nasceu do gás e da poeira do meio interestelar que se condensaram em uma nuvem 4,6 bilhões de anos atrás. A maior parte desse material colapsou formando o Sol, enquanto o restante permaneceu na forma de um disco girando em torno da nova estrela. Nesse disco, os grãos de poeira se aglomeraram ao longo de milhões de anos até formarem corpos rochosos com cerca de 100 quilômetros de diâmetro semelhantes aos asteroides – são os chamados planetesimais. A maioria dos planetesimais continuou a colidir entre si até formar os embriões planetários: corpos semelhantes a planetas, com massa en50  z  julho DE 2014

Origem e evolução Em pouco mais de 1 bilhão de anos, uma nuvem de gás e poeira gerou o Sol e os planetas que gravitam ao seu redor

Planetesimais

+ quente, + viscoso – quente, – viscoso

disco protoplanetário

1 100 mil ANOS depois do surgimento do Sol Uma nuvem de gás e poeira colapsa ao longo de 100 mil anos e origina o Sol e um disco ao seu redor. A ação dos raios cósmicos e da radiação solar, somada ao movimento do disco, divide-o em duas faixas com propriedades distintas, separadas por uma região pobre em material

Fase inicial de formação do sistema solar durou 10 milhões de anos e gerou os planetas gigantes gasosos

tre a da Lua (um centésimo da terrestre) e a de Marte. Alguns dos primeiros embriões cresceram o suficiente para a sua atração gravitacional começar a sugar o gás do disco protoplanetário, formando os atuais planetas gigantes gasosos: Júpiter, Saturno, Urano e Netuno. Essa primeira fase de formação do sistema solar durou no máximo 10 milhões de anos e terminou quando todo o gás do disco se dissipou ou foi capturado pelos gigantes gasosos e pelo Sol. O sistema solar ainda era muito diferente do atual: os gigantes gasosos orbitavam mais próximos do Sol, imersos em um mar de planetesimais e embriões planetários. Colisões e chacoalhões gravitacionais ocorridos nos 500 milhões de anos seguintes acabaram por levar os gigantes gasosos até suas posições atuais, empurrando os corpos menores para faixas específicas e mais distantes do Sol, que formam o cinturão de Kuiper, onde está Plutão, e, mais além, a nuvem de Oort, de onde vêm muitos cometas. Os astrônomos Hal Levison, Alessandro Morbidelli, Kleomentis Tsiganis e o brasileiro Rodney

imagem nasa  infográfico ana paula campos  ilustraçãO guilherme lepca

Marte pequeno. “A beleza de nosso trabalho é explicar Marte de um jeito muito mais simples e provável”, diz o astrônomo Othon Winter, da Faculdade de Engenharia da Unesp em Guaratinguetá, que faz parte da equipe que sugeriu um novo modelo para a formação de Marte em fevereiro deste ano no Astrophysical Journal. O astrônomo André Izidoro, que concluiu seu doutorado na Unesp em 2013 sob a orientação de Winter, teve a ideia de testar se o tamanho reduzido de Marte poderia ser consequência da falta de “material de construção” na vizinhança marciana nos primórdios do sistema solar. Segundo esse novo cenário, há 4 bilhões de anos haveria uma grande lacuna de matéria-prima numa região do disco protoplanetário – composto por milhares de corpos semelhantes às luas e aos asteroides atuais que originaram os planetas rochosos por meio de colisões – próxima à órbita atual de Marte. Atualmente fazendo pós-doutorado no Observatório da Costa Azul, da Universidade de Nice, na França, Izidoro construiu esse modelo com base em teorias recentes de que lacunas como essa podem ter surgido naturalmente no disco planetário. As simulações em computador baseadas nesse novo cenário sugerem que Marte teria começado a se formar em uma das seguintes regiões: próximo à localização atual da Terra ou mais perto de onde hoje se encontra o cinturão de asteroides, entre a órbita de Marte e de Júpiter. Tanto em um caso como no outro, Marte teria migrado muito rapidamente para a região carente em material de construção planetária e ali permanecido, a uma distância uma vez e meia maior que a que separa a Terra do Sol, segundo as simulações em computador realizadas por Izidoro e Winter em parceria com Nader Haghighipour, da Universidade do Havaí em Manoa, Estados Unidos, e Masayoshi Tsuchida, do Instituto de Biociências, Letras e Ciências Exatas da Unesp em São José do Rio Preto.


Júpiter

Disco com planetesimais e embriões planetários

Terra

gigantes gasosos

planetas rochosos

sistema solar

2

3

4

1 milhão de anos depois

10 milhões de anos depois

Parte do gás começa a se agregar aos embriões planetários maiores e a formar os planetas gigantes gasosos

1 bilhão de anos depois O sistema solar alcança configuração semelhante à atual

novo modelo para a origem de marte situação inicial Sol

0,5 UA

1,5 UA

2,5 UA

5 UA

lacuna Região com 50% a 75% menos material

Sem gás, os planetesimais e os embriões planetários continuam a colidir e geram os planetas rochosos. As novas simulações explicam a origem de Marte ao assumirem que havia uma faixa com menos material entre 1,5 UA e 2,5 UA

júpiter Quase na mesma posição atual

resultados Sol

mercúrio Não foi estudado

vênus e Terra Com massa e posição parecidas com as atuais

marte Migra cedo para a lacuna

ASTEROIDES Cinturão semelhante ao atual

júpiter Quase na mesma posição atual

Fonte andré izidoro / unesp

Gomes, atualmente no Observatório Nacional, apresentaram esse modelo de formação inicial do sistema solar em 2005, em uma série de artigos publicados na revista Nature. Essa teoria ficou conhecida como modelo de Nice, por ter sido criada quando seus autores trabalhavam juntos no Observatório da Costa Azul. Ao mesmo tempo que os gigantes gasosos se formavam, o choque de planetesimais e embriões planetários acumulados entre o Sol e Júpiter começou a originar os planetas rochosos atuais – Mercúrio, Vênus, Terra e Marte –, além do cinturão de asteroides entre Marte e Júpiter. Foram necessários de 50 milhões a 150 milhões de anos para Mercúrio, Vênus e a Terra alcançarem sua forma atual, enquanto Marte se formou muito mais rapidamente, em menos de 10 milhões de anos. Izidoro dedicou seu doutorado justamente a simular esse período final de formação dos planetas. “Nossas simulações, assim como a maioria das feitas pelos outros pesquisadores, costumavam falhar na produção de Marte”,

conta Izidoro. “Geravam de dois a três planetas parecidos com a Terra e Vênus, mas nunca algo parecido com Marte.” Na mesma época em que Izidoro iniciou seu doutorado, a comunidade astronômica internacional começou a perceber qual era o principal problema das simulações. Elas assumiam que a quantidade de planetesimais e embriões planetários variava de maneira suave ao longo do disco protoplanetário. Na sequência, diversos estudos começaram a mostrar que um planeta menor poderia surgir na vizinhança atual de Marte, se a distribuição de material variasse de modo mais abrupto, com uma faixa estreita contendo mais material próximo à órbita da Terra hoje, seguida de uma faixa com menos material na região onde atualmente se encontra o planeta vermelho. O cenário mais famoso para explicar essa distribuição incomum de material é chamado de grand tack. De acordo com esse cenário, proposto em 2011 na Nature, no final da primeira fase de formação do sistema solar, quando os gigantes pESQUISA FAPESP 221  z  51


52  z  julho DE 2014

imagem Mars Exploration Rover Mission / Texas A&M / Cornell / JPL / NASA

gasosos já haviam surgido, forças gravitacionais numa faixa com menos planetesimais e embriões atuando entre o resto de gás que ainda permea- planetários, justamente na órbita atual de Marte. va o disco protoplanetário e os gigantes gasosos Inspirados nesse cenário, Izidoro e seus colefizeram Júpiter e Saturno avançar em direção ao gas realizaram simulações em computador que Sol. Nessa viagem, os gigantes gasosos saíram de começavam assumindo um disco com quase mil suas órbitas originais a cerca de quatro unidades planetesimais e cerca de 150 embriões planetáastronômicas – uma unidade astronômica é a dis- rios entre o Sol e Júpiter, com uma lacuna de tância que separa a Terra do Sol – e migraram até densidade próxima à posição atual de Marte. A a região onde hoje está Marte, a 1,5 unidade astro- equipe realizou 84 simulações usando o cluster nômica. Nesse momento, interações complexas de computadores do laboratório do Grupo de das forças gravitacionais atuando sobre o gás e os Dinâmica Orbital e Planetologia da Unesp de gigantes gasosos fazem a migração dos planetas Guaratinguetá. Cada simulação começava asmudar de sentido, levando Júpiter e Saturno de sumindo condições iniciais diferentes, varianvolta a suas órbitas mais afastadas. Simulações do parâmetros tais como as órbitas de Júpiter mostraram que a movimentação abrupta desses e Saturno, a largura, posição e intensidade da dois planetas teria espalhado lacuna de densidade. os corpos do disco protoplaO resultado de cada simunetário, criando uma distribuilação é uma espécie de filme ção desigual de material que em movimento acelerado, com explicaria Marte. Esse cenário um a três meses de duração, foi batizado de grand tack por retratando 1 bilhão de anos de Características um de seus autores, Alessandro colisões e acrobacias interplainiciais do disco Morbidelli, do Observatório da netárias. O resultado de uma Costa Azul, em alusão à manoúnica simulação é como um filprotoplanetário bra de tacking, quando os barme de ficção científica, contancos a vela revertem seu curso do uma história alternativa do podem ter em relação à direção do vento. sistema solar, mas fiel às leis da física. Comparando os relevado à falta sultados de muitas simulações A grande lacuna de material na diferentes, porém, os pesquiEmbora o cenário do grand tack sadores podem ter uma ideia seja possível, Izidoro nota que região onde se do que é mais provável que teo modelo só funciona para uma nha acontecido no passado do combinação muito precisa das formou Marte sistema solar. propriedades físicas do disco As simulações em que um protoplanetário e dos gigantes planeta com as dimensões e a gasosos. “É muito pouco prováposição atual de Marte permavel que a reversão de movimento de Júpiter tenha ocorrido exatamente na atual necia orbitando o Sol de maneira estável eram órbita de Marte”, ele explica. “Se as propriedades aquelas que assumiam uma lacuna de densidade do disco e dos planetas forem um pouquinho di- no disco protoplanetário entre 1,5 e 2,5 unidades ferentes, as simulações do modelo formam um astronômicas, com 50% a 75% de material a menos que a média do disco. As simulações também sistema solar completamente diferente do real.” Buscando uma alternativa ao grand tack, Izidoro deixaram claro que, ao contrário do que se penresolveu explorar uma ideia proposta em 2008 pelo sava, Marte não começa a se formar na região astrônomo Liping Jin, da Universidade de Jilin, na de pouco material. Em metade das simulações China. Jin e seus colegas propuseram que a distri- bem-sucedidas, Marte nasce próximo de onde buição dos corpos rochosos no disco protoplane- a Terra e Vênus se formaram, enquanto no restário poderia ter uma grande lacuna de densidade tante das simulações ele nasce mais afastado do próxima à órbita de Marte. Mas a origem dessa Sol, do outro lado da lacuna. As forças gravitaciolacuna seria mais antiga do que supõe o cenário do nais entre o Sol, os gigantes gasosos e os planetas grand tack. Ela teria sido criada pelas propriedades nascentes, porém, acabam por lançar Marte na do gás e da poeira na infância do disco protopla- lacuna, onde seu crescimento é interrompido. “A netário, antes da formação dos gigantes gasosos. lacuna tem tão pouco material que quase não há Ainda nessa época, os efeitos da radiação solar e colisões na região”, explica Winter. “Nem mesdos raios cósmicos, combinados com o fato de o mo um planeta pequeno poderia se formar ali.” gás do disco planetário girar mais rapidamente Além de Marte, simulações também conseguem mais próximo ao Sol, poderiam criar uma lacuna formar planetas muito parecidos com a Terra e de densidade – uma faixa com menos gás e poeira Vênus, além de um cinturão de asteroides com que, milhões de anos mais tarde, poderia resultar órbitas semelhantes às dos asteroides reais. As


Pôr do sol em Marte, capturado pelo robô Spirit: planeta vermelho se formou em 2 milhões de anos, 25 vezes mais rápido do que a Terra

simulações não conseguiram, porém, formar um análogo de Mercúrio. De fato, Mercúrio vem sendo relativamente ignorado pela maioria dos modelos até agora. “Mas alguns pesquisadores já estão trabalhando em cima do nosso modelo para tratar disso”, diz Izidoro. “Agora, Mercúrio é a pedra da vez.” O tempo que os planetas semelhantes à Terra e a Marte levam para se formar nas simulações também está de acordo com os tempos de formação que os geoquímicos estimam comparando a proporção de elementos químicos radioativos nas rochas terrestres e de meteoritos marcianos. Marte teria terminado de crescer prematuramente apenas 2 milhões de anos depois de começar a se formar. Já a fase de crescimento da Terra teria demorado em torno de 50 milhões de anos. Winter faz questão de ressaltar que o estudo tem aplicações que vão além da formação de Marte e do sistema solar. “Uma grande variedade de sistemas planetários extrassolares vem sendo descoberta, muito diferentes do nosso sistema solar e ainda sem explicação”, conta o astrônomo. “Os modelos para a origem deles ainda as-

sumem um disco protoplanetário de densidade uniforme, sem lacunas.” “Esse déficit local de planetesimais e embriões que eles assumem, ainda que extremo, é esperado”, diz o astrônomo brasileiro Wladimir Lyra, do Laboratório de Propulsão a Jato da Nasa. Em 2008, Lyra e colaboradores fizeram simulações para estudar o efeito do movimento turbulento do material do disco protoplanetário na formação dos planetesimais. “A distribuição não homogênea de gás e rochas que resulta de nossos modelos coincide razoavelmente bem com as que Izidoro e colegas necessitam no modelo deles.” n Projeto Dinâmica orbital de pequenos corpos (nº 2011/08171-3); Modalidade: Projeto Temático; Pesquisador responsável Othon Cabo Winter (Faculdade de Engenharia de Guaratinguetá/Unesp); Investimento R$ 560.886,80 (FAPESP).

Artigo científico IZIDORO, A. et al, Terrestrial planet formation In a protoplanetary disk with a local mass depletion: a successful scenario for the formation of Mars. The Astrophysical Journal. v. 782: 31. 10 fev. 2014.

pESQUISA FAPESP 221  z  53


Astrofísica y

Nebulosa em 3D Modelo tridimensional destaca irregularidades na nuvem de gás e poeira que envolve a estrela Eta Carinae Marcos Pivetta

U

ma equipe internacional de pesquisadores, com a participação de três brasileiros, produziu a mais detalhada radiografia em três dimensões da nuvem de gás e poeira que impede a observação direta da misteriosa estrela gigante Eta Carinae, situada a 7.500 anos-luz de distância da Terra. Os dados pormenorizados sobre a estrutura de toda a nebulosa estão em um artigo previsto para ser publicado no início de julho na revista científica Monthly Notices of the Royal Astronomical Society. “Estamos disponibilizando até um arquivo que qualquer pessoa pode baixar do site da revista e usá-lo para produzir numa impressora 3D uma réplica da nuvem”, afirma Mairan Teodoro, um dos autores do trabalho, astrofísico formado pela Universidade de São Paulo (USP) que faz pós-doutorado no Nasa Goddard Space Flight, nos Estados Unidos. O Centro de Tecnologia da Informação (CTI) Renato Archer, de Campinas, imprimiu, por exemplo, uma réplica de 15 centímetros do Homúnculo, cuja extensão total, de ponta a ponta, é da ordem de 3 trilhões de quilômetros. O estudo revela detalhes de uma estrutura que se formou em torno da estrela há pouco mais de 170 anos. No início 54  z  julho DE 2014

dos anos 1840, a Eta Carinae, que a cada cinco anos e meio sofre uma espécie de apagão por cerca de três meses, passou a exibir uma feição particular: uma espessa nuvem de gás e poeira, com um formato semelhante a duas bexigas conectadas por uma entrada comum, formou-se ao seu redor. Denominado Homúnculo, esse envelope de matéria em expansão encobre, na verdade, um sistema binário. Hoje há consenso de que a Eta Carinae é composta de duas estrelas, uma com 90 massas solares e outra com 30, em vez de uma só, como se pensava. A origem da nebulosa é atribuída a uma série de grandes erupções, a primeira ocorrida em 1843, que fez o sistema estelar ejetar enorme quantidade de matéria e aumentar temporariamente seu brilho. Calombos e buRACOS

O novo modelo tridimensional do Homúnculo confirma algumas características da nuvem que já se insinuavam em outros trabalhos e destaca particularidades até agora ignoradas. As duas metades da nebulosa são muito parecidas, quase simétricas. O lóbulo denominado azul – cuja observação é mais fácil de ser obtida por se encontrar à frente na linha de visão da Terra – tem uma pro-

tuberância em sua região central. Essa proeminência forma um ângulo de 55 graus em relação ao plano equatorial que divide a nebulosa (ver quadro ao lado). O lóbulo vermelho, que fica parcialmente escondido do ponto de vista de um observador terrestre, também apresenta uma protuberância com a mesma angulação, só que na direção oposta. Além desses calombos no coração do Homúnculo, o modelo em 3D aponta irregularidades nos polos, nas pontas, de cada metade da nuvem de gás e poeira. O lóbulo azul tem um buraco principal e uma espécie de vala ou depressão relativamente plana que ocupa uma região ao redor de seu polo. O vermelho também apresenta um grande buraco, mas ainda exibe furos menores e uma vala de formato mais variável. Os pesquisadores acreditam que a nebulosa tem essas características anatômicas porque ela se formou em torno de um sistema binário. “A interação entre as duas Eta Carinae, a maior e a menor, e seus respectivos ventos estelares deve ter moldado esses traços no Homúnculo”, afirma Augusto Damineli, professor do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, um dos maiores estudiosos desse sistema e também autor do novo estudo.


Os defeitos do Homúnculo Embora quase simétricos, os dois lóbulos da nebulosa apresentam pequenas diferenças em suas formas geométricas

foto  jon Morse (universidade do colorado) e nasa  ilustraçãO  Modelagem em 3d por Steffen et al.

Lóbulo vermelho

A nuvem de gás e poeira que encobre

Protuberância

a Eta Carinae, vista acima em imagem

Lóbulo azul

do telescópio Hubble, é composta por dois lóbulos, o azul e o vermelho. A modelagem

Buraco principal

Protuberância

em 3D do Homúnculo gerada pela equipe de astrofísicos,

Depressões

reproduzida ao lado de acordo com dois distintos ângulos Lóbulo azul

de visão, mostra que o lóbulo vermelho

Protuberância

apresenta mais

Lóbulo vermelho

deformidades (buracos

Dentro da nebulosa, praticamente oca na parte interna e mais densa na porção externa, as duas Eta Carinae orbitam em torno do centro de massa comum a ambas. Cada estrela produz um forte vento estelar, um jato de partículas inonizadas que emana permanentemente de sua superfície. A dinâmica dos choques entre os ventos, uma espécie de cabo de força entre os dois fluxos de partículas carregadas eletricamente, se altera conforme as estrelas passam pelo ponto mais próximo de suas órbitas (periastro) e pelo mais distante (apoastro). Recentemente, Damineli e Teodoro mostraram que o apagão períódico da Eta Carinae é prolongado pela interação dos ventos estelares (ver Pesquisa FAPESP nº 191). Agora, eles colheram evidências de que as irregularidades na forma de cada lóbulo do Homúnculo, descrito como duas lanternas chinesas em expansão pela verve de Damineli, parecem ser uma “impressão digital” do sistema binário de alta massa oculto no interior do invólucro de gás e poeira. Teodoro e seus colegas usaram uma nova técnica para modelar tridimensionalmente os contornos do Homúnculo. Com o auxílio do espectrógrafo XShooter, instalado no Very Large Telescope (VLT), um dos equipamentos mantidos pelo Observatório Europeu do Sul (ESO), no Chile, mediram as emissões da nebulosa em um comprimento de onda do infravermelho denominado hidrogênio molecular (H2). “Nesse comprimento, podemos ver a parte de trás do Homúnculo, que não é observada na luz visível”, diz o astrofísico alemão Wolfgang Steffen, da Universidade Nacional Autônoma do México (Unam). “Essa emissão fornece informação sobre a velocidade de expansão da nebulosa, que aumenta à medida que a poeira e o gás se distanciam do centro dessa formação quase simétrica.” Os dados sobre a velocidade em diferentes pontos da nuvem são colocados em um software desenvolvido por Steffen, chamado Shape, que gera uma estrutura em 3D de todo o Homúnculo. “Dessa forma, determinamos a geometria da nebulosa”, afirma Teodoro. n

menores e depressões tortuosas) que o azul.

Buracos menores Depressões irregulares

Protuberância Buraco principal

Artigo científico STEFFEN, W. et al. The three-dimensional structure of the Eta Carinae Homunculus. Monthly Notices of the Royal Astronomical Society. No prelo.

pESQUISA FAPESP 221  z  55


Exemplares do protozoário Toxoplasma gondii (magenta) em célula do fígado

Imunologia y

Ganhos recíprocos Virulência do protozoário Toxoplasma gondii fortaleceu defesas de seu principal hospedeiro Rodrigo de Oliveira Andrade

56  z  julho DE 2014

P

esquisadores de Minas Gerais identificaram um possível mecanismo de reação do organismo de roedores aos ataques do protozoário Toxoplasma gondii, causador da toxoplasmose. Sob a coordenação do imunologista Ricardo Gazzinelli, eles verificaram que a resposta eficiente do sistema de defesa de camundongos à infecção por toxoplasma depende da ação orquestrada de quatro proteínas produzidas pelas células dendríticas, as primeiras células do sistema imune a entrar em contato com o parasita. Essas quatro proteínas pertencem à família dos toll-like receptors (TLRs), moléculas expressas pelas células de defesa que identificam pedaços de microrganismos invasores. Elas compõem um mecanismo primordial de proteção bastante preservado do ponto de vista evolutivo — são encontradas em peixes, aves e mamíferos. “Esses receptores são muito específicos no reconhecimento de moléculas associadas a agentes infecciosos que ameaçam a sobrevivência dos organismos hospedeiros”, explica Gazzinelli, pesquisador do Centro de Pesquisas René Rachou da Fundação Oswaldo Cruz (Fiocruz), em Minas Gerais. Duas dessas proteínas, a TLR-7 e a TLR-9, já eram bem conhecidas dos imunologistas. Elas detectam diferentes microrganismos ao reconhecer trechos de seu material genético. Em 2013, Gazzinelli e Warrison Andrade, então seu aluno de dou-


imagem  Latinstock / MOREDUN ANIMAL HEALTH LTD / SCIENCE PHOTO LIBRARY / SPL DC

"O toxoplasma evolui para infectar o hospedeiro e o hospedeiro para neutralizar as adaptações do protozoário", diz Ricardo Gazzinelli

torado na Universidade Federal de Minas Gerais (UFMG), verificaram que essas proteínas agem em conjunto com outras duas mais seletivas do mesmo grupo: a TLR-11 e a TLR-12. Até hoje encontrados só em roedores, os principais hospedeiros intermediários do toxoplasma, esses receptores detectam a profilina, proteína essencial para a motilidade do protozoário e sua capacidade de invadir as células do hospedeiro, em cujo interior se multiplica. Sempre que identificam a profilina, as toll-like receptors 11 e 12 iniciam uma reação em cadeia que termina com a produção das proteínas immunity-related GTPase, ou IRGs, que destroem as vesículas em que os protozoários se alojam. A existência de proteínas especializadas em identificar o toxoplasma é, para os pesquisadores, uma evidência de como a exposição ao protozoário por milênios pode ter ajudado a moldar o sistema de defesa do hospedeiro, de modo que ambos vivam em relativa harmonia. Surgidos de mutações no material genético do hospedeiro, os genes que codificam as TLR-11 e 12 permitiram aos roedores sobreviver à infecção por toxoplasma ao eliminar a maior parte dos parasitas. E não foram de todo ruim para o protozoário, que não é eliminado por completo. “Esse equilíbrio evita que o toxoplasma mate seu hospedeiro intermediário, aumentando as chances do parasita de

alcançar o organismo de gatos e outros felinos, seus hospedeiros definitivos”, explica Gazzinelli. A evolução das proteínas TLR ocorreu em milhões de anos. Hoje cada proteína dessa família exerce função semelhante, mas com especificidade distinta. “Cada proteína da família TLR reconhece uma molécula específica e bem preservada dos microrganismos patogênicos”, conta o pesquisador. “Por desempenharem função importante no combate aos microrganismos invasores, elas se tornaram altamente conservadas.” No caso do toxoplasma, o reconhecimento da profilina pelas TLR-11 e 12 dos roedores gerou um equilíbrio estável entre o parasita e seu hospedeiro. manipular e sobreviver

Ao infectar os roedores, o toxoplasma é cercado por células de defesa, que eliminam a maior parte dos parasitas. Os sobreviventes se instalam na forma de cistos, em geral nos músculos e no cérebro do hospedeiro. Estudos recentes sugerem que, no cérebro, o parasita altere o comportamento de roedores, fazendo-os perder o medo dos gatos. Segundo os pesquisadores, essa é uma espécie de manipulação por meio da qual o toxoplasma aumenta suas chances de perpetuação, uma vez que só completa seu ciclo reprodutivo no intestino dos felinos. Já a evolução das proteínas IRGs segue um modelo distinto, baseado em um equilíbrio instável, no qual o hospedeiro desenvolve mecanismos de defesa mais eficientes contra o parasita ao mesmo tempo que o protozoário aprimora sua capacidade de escapar da resposta imune. Experimentos feitos por pesquisadores da Alemanha e de Portugal mostraram um exemplo dessa competição, que leva a um processo evolutivo mais rápido. Linhagens mais agressivas do toxoplasma neutralizam a ação das proteínas IRGs, que deveriam destruí-las. Mas, por razão ainda desconhecida, essa neutralização só ocorreu em camundongos criados em laboratório. As cepas mais agressivas do protozoário não interromperam a ação dessas proteínas em roedores silvestres, que têm maior diversidade de IRGs. Não se sabe por que muitas espécies não têm os genes das IRGs. Uma hipótese é que manter um sistema de IRGs eficientes seria custoso para o hospedeiro, razão por que teriam desaparecido de vários vertebrados.

O mais interessante, segundo Gazzinelli, é que essa evolução combinada de estratégias de ataque e defesa são fundamentais para ambos os organismos serem bem-sucedidos na natureza. Esse fenômeno, a coevolução, se dá pela pressão de seleção à qual parasita e hospedeiro são submetidos. “Em termos práticos”, diz o pesquisador, “o toxoplasma evolui para infectar o hospedeiro, enquanto o hospedeiro evolui para neutralizar as adaptações do protozoário”. Esse processo é conhecido como coevolução rainha vermelha, em referência ao livro de Lewis Carrol Alice através do Espelho. Nele, a rainha diz a Alice: “Aqui é preciso correr tanto quanto se pode para ficar no mesmo lugar”. O protozoário pode chegar ao organismo humano pelo consumo de água e alimentos (em geral carne crua ou malpassada) contaminados com ovos do parasita. Estima-se que metade da população brasileira — e um terço da mundial — esteja infectada. Disperso por fezes de animais domésticos, o protozoário assume sua forma ativa no organismo de pessoas com sistema imune debilitado e em grávidas, podendo contaminar o feto e até matá-lo. Apesar disso, o ser humano é considerado um hospedeiro acidental. Até onde se sabe, as células de defesa dos seres humanos e de outros mamíferos não produzem os dois receptores que reforçam as barreiras dos roedores contra o toxoplasma. “Os seres humanos”, diz Gazzinelli, “podem ter desenvolvido outros receptores que favoreçam o controle do protozoário”. n

Artigos científicos GAZZINELLI, R. T. et al. Innate sensing of Toxoplasma gondii: an evolutionary tale of mice, cats and men. Cell Host & Microbe. v. 15, n. 2, p. 132-38. fev. 2014. ANDRADE, W. A. et al. Combined action of nucleic acid-sensing Toll-like Receptors and TLR11/TLR12 heterodimers Imparts resistance to Toxoplasma gondii in mice. Cell Host & Microbe, v. 13, n. 1, p. 42-53. jan. 2013.


OCEANOGRAFIA y

Seres das profundezas Vermes marinhos revelam surpreendentes estratégias adaptativas às águas frias e escuras da costa brasileira Carlos Fioravanti

T

rabalha-se com entusiasmo no laboratório do biólogo Paulo Sumida no Instituto Oceanográfico da Universidade de São Paulo. Na tarde de 1º de abril, diante de um computador em uma mesa entre estantes com livros e organismos marinhos mantidos em potes plásticos com álcool, Olívia Soares Pereira, a mais nova integrante do grupo, ainda na graduação, empolgava-se como uma torcedora de futebol vendo um filme em alta definição sobre o fundo do mar em um dos computadores, com animais peculiares como um polvo com membranas entre os tentáculos, uma estrela-do-mar vermelha e corais alongados que crescem sobre morros cobertos de asfalto que vazou da terra. O filme, que lembrava os da National Geographic na TV, era um registro da viagem realizada em abril de 2013 em um submarino japonês a regiões nunca antes exploradas a mais de 4 mil metros de profundidade do litoral do Espírito Santo ao Rio Grande do Sul.

58  z  julho DE 2014

A todo momento ela e os colegas que começaram a ver os filmes – foram feitas quase 100 horas de filmagem – se perguntavam como os organismos se organizavam e, enfim, por que eram daquele jeito. Um dos organismos já examinados, que exemplifica as peculiaridades da vida no fundo do mar, é um verme marinho – um poliqueta – comedor de ossos do gênero Osedax. “As fêmeas têm um harém de machos anões, às vezes mais de 100 machos, grudados em seu corpo”, descreve Sumida, acrescentando uma curiosidade: esses poliquetas são também chamados de vermes-zumbi, por colonizar carcaças e viver entre animais mortos. O corpo das fêmeas consiste em um tentáculo vermelho com quatro a cinco centímetros de comprimento. Em uma das extremidades, a que fica para fora do osso que estão digerindo, estão os palpos, rugosidades

Verme comedor de ossos: Osedax fêmea, abaixo, e ampliada, ao lado, com os minúsculos machos aderidos ao seu corpo


pESQUISA FAPESP 221  z  59

fotos  Yoshihiro Fujiwara (JAMSTEC)


que funcionam como brânquias, filtrando oxigênio da água. A outra extremidade se ramifica e se fixa sobre o interior dos ossos como a raiz de uma planta. Os ovários, junto a essa base, são bem grandes, e os machos, de poucos milímetros de comprimento, vivem no tubo gelatinoso da fêmea, muito próximo ao oviduto, canal que serve para a passagem dos ovos. As fêmeas se impõem desde cedo sobre o destino dos machos. Ao sair do ovo, a larva poderá crescer e formar outra fêmea se aderir a um osso. Se encontrar à frente o corpo da fêmea, porém, não crescerá e será apenas um macho anão, como resultado provável da ação de substâncias químicas liberadas pelo contato com o corpo da fêmea. “É uma adaptação evolutiva bastante interessante”, comenta Sumida.

S

e machos e fêmeas fossem do mesmo tamanho, ele diz, a competição por alimento e a dificuldade de encontrar um parceiro sexual seriam maiores. A situação atual, provavelmente a única que sobreviveu ao longo de milhões de anos, permite que a fêmea possa produzir milhares de ovos e, ao mesmo tempo, evitar a competição por alimento com os pequeninos machos. “Os óvulos são maiores e não poderiam ser produzidos por fêmeas pequenas, enquanto o espermatozoide pode ser produzido em grande número por animais pequenos”, observa o biólogo. Segundo ele, outro exemplo desse fenômeno é o peixe-diabo, outro ser das profundezas marinhas. O macho é minúsculo e se prende ao corpo da fêmea, muito maior. “Quando um macho encontra uma fêmea, gruda e não sai mais. Torna-se um parasita da fêmea, a ponto de o tecido do macho fundir-se com o da fêmea.” Sumida pôde estudar esse verme – uma espécie ainda não descrita de poliqueta e a primeira do Atlântico – porque ele e os colegas do Japão, de São Paulo, Santa Catarina, Rio Grande do Sul, Rio de Janeiro e Espírito Santo, quando

1

passaram com o submarino na chamada Dorsal de São Paulo, a cerca de 700 quilômetros do litoral de São Paulo, tiveram a sorte de encontrar os ossos da cauda de uma baleia, depois identificada como uma minke-antártica com cerca de oito metros de comprimento e morta no assoalho marinho provavelmente entre cinco e 10 anos. Era a primeira carcaça de baleia encontrada em mar profundo (a 4.200 metros de profundidade, neste caso) na costa da América do Sul. Coletaram nove vértebras, já degradadas,

2

60  z  julho DE 2014

tomadas por esses poliquetas. “Já encontramos três morfotipos [variações morfológicas] diferentes de Osedax, mas todos geneticamente idênticos”, diz Sumida. “Associados aos ossos encontramos 25 espécies de organismos marinhos e vários outros dentro dos ossos, principalmente poliquetas, todos provavelmente ainda não descritos.” Depois de dois anos de planejamento e autorizações, o submarino Shinkai 6.500, operado a partir do navio oceanográfico japonês Yokosuka, explorou as águas

O submarino Shinkai, antes de mais uma expedição no fundo do mar, e os ossos da coluna vertebral de uma baleia encontrados a 4.200 metros de profundidade e coletados para análise


fotos 1 Paulo Y. G. Sumida (IO/USP) 2 Japan Agency for Marine-Earth Science and Technology (JAMSTEC)

2

brasileiras como parte de uma viagem mundial. O submarino leva duas horas para descer até o fundo do mar a 4 mil metros e pode permanecer lá embaixo por até oito horas. Em junho de 2013, dois meses depois da viagem ao fundo do mar, Sumida, desta vez a bordo do navio oceanográfico da USP, o Alpha-Crucis, participou de outra operação inusitada: o lançamento, em pontos predeterminados a 1.500 e 3.300 metros de profundidade, de estruturas metálicas contendo ossos de baleia e placas de madeira e de plástico, com o propósito de saber que organismos as colonizam e assim conhecer melhor os processos de transformação da matéria orgânica que se passam nas águas frias e escuras do fundo do mar. Os materiais devem ser resgatados em outubro deste ano e os achados, comparados com os ossos e madeiras depositados na costa

do estado de Washington por pesquisadores da Universidade do Havaí. “Conhecemos pouco dos mares profundos”, diz Sumida, que há 20 anos fez o mestrado sobre organismos de mar profundo e depois desceu seis vezes no fundo do mar – seu recorde, antes do ano passado, tinha sido em 1999, quando chegou a 1.200 metros na costa da Califórnia no submarino Alvin, dos Estados Unidos. Um dos levantamentos mais abrangentes da biodiversidade marinha nacional foi o Programa de Avaliação do Potencial Sustentável de Recursos Vivos na Zona Econômica Exclusiva (Revizee). Concluído em 2003, o Revizee reuniu 150 especialistas de 40 instituições nacionais de pesquisa que dimensionaram os estoques de 50 espécies de peixes e crustáceos, incluindo os de águas profundas, a uma distância de até 350 quilômetros da costa (ver Pesquisa FAPESP nº 83). Em 2010, o

Brasil, um dos líderes em biodiversidade terrestre, com cerca de 20% das formas de vida encontradas no planeta, apareceu em uma posição modesta, com 9.101 espécies de organismos marinhos, o equivalente a 4% do total, no Censo de Vida Marinha, que reuniu 2.700 especialistas de 80 países durante 10 anos (ver Pesquisa FAPESP nº 176). Como indicação concreta de que ainda há muito por fazer, em caixas com potes com álcool mantidos em outra sala estão a estrela-do-mar vermelha, um caranguejo e outros seres das profundezas esperando a vez de serem examinados. n

Projeto Biodiversidade e conectividade de comunidades bênticas em substratos orgânicos (ossos de baleia e parcelas de madeira) no Atlântico sudoeste profundo – BioSuOr (11/50185-1); Modalidade Progama Biota – Projeto Temático; Pesquisador responsável Paulo Yukio Gomes Sumida (IO-USP); Investimento R$ 1.443.516,15 (FAPESP).

pESQUISA FAPESP 221  z  61


Genômica y


Para todos os gostos Pesquisa desvenda origem e diversidade genética de tangerinas, laranjas e limões Maria Guimarães Fotos 

Léo Ramos

Q

uem está acostumado a consumir laranjas, tangerinas e limões à venda nos supermercados pode ter uma surpresa prazerosa no Centro de Citricultura Sylvio Moreira em Cordeirópolis, no interior paulista. Entre pequenas árvores mantidas em estufas e um enorme pomar com plantas adultas, ali está uma coleção com mais de 1.700 tipos de frutas cítricas. Entre elas, quase 700 variedades de laranjas doces – aquelas adequadas para consumo em sucos ou in natura – e quase 300 de tangerinas. A degustação de frutos de árvores diferentes nesse centro de pesquisa ligado ao Instituto Agronômico de Campinas (IAC), da Secretaria de Agricultura, revela uma riqueza surpreendente de sabores e texturas. “Todo material que a citricultura brasileira tem passou por aqui em algum momento”, resume o agrônomo Marcos Machado, pesquisador do Centro de Citricultura e coordenador do Instituto Nacional de Ciência e Tecnologia de Genômica para Melhoramento de Citros (INCT Citros). Ao longo dos 85 anos de existência do centro, pesquisadores cruzaram variedades diferentes em busca, principalmente, de produzir plantas resistentes a doenças. Partindo de cruzamentos tradicionais, quase como os que deram origem aos cítricos que chegam ao público desde a domesticação dessas espécies, o centro foi enriquecendo seu arsenal de técnicas com a disponibilidade de informações genéticas. Até agora esse conhecimento se concentrou no uso de marcadores moleculares para caracterizar cruzamentos, avaliando quais descendentes da mistura entre duas variedades (ou espécies) receberam o material genético de interesse dos pesquisadores. Mas agora a era genômica chegou ao Centro de Citricultura, abrindo novas possibilidades. O primeiro grande passo, que rendeu um artigo publicado em junho no site da Nature Biotechnology, trouxe revelações inesperadas sobre a origem das laranjas e tangerinas que hoje existem. Já se sabia que as frutas cítricas não são espécies naturais, mas híbridos aprimorados por cruzamentos naturais ao longo dos pESQUISA FAPESP 221  z  63


últimos milhares de anos. Mas não há registros dessa história da domesticação do gênero Citrus, que começou no Sudeste da Ásia. “Sabíamos que havia misturas, mas não tínhamos detalhes”, conta o biólogo Marco Takita, um dos autores. Uma surpresa foi descobrir que algumas tangerinas, que se precisava serem variações da espécie ancestral C. reticulata, na verdade contêm em seu genoma vários trechos de outra espécie, a toranja (C. maxima). Esta é como se fosse uma laranja enorme, com até um quilograma, explica Takita, que não é consumida por aqui. É usada como fonte de diversidade genética em programas de melhoramento e, agora se sabe, participou nos cruzamentos que resultaram na tangerina poncã, que por seu sucesso comercial no Brasil foi sequenciada no Centro de Citricultura, com recursos do INCT Citros, que tem financiamento da FAPESP e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). “É importante saber que a toranja serviu como fonte genética”, afirma o pesquisador. O estudo encontrou também uma espécie inesperada. A tangerina chinesa conhecida como mangshan, que se considerava ter a mesma origem das outras tangerinas, é na verdade uma espécie distinta, C. mangshanensis, que parece ter um parentesco distante com a C. reticulata.

Outra surpresa para os consumidores vem da laranja doce, que nas feiras brasileiras são vendidas como laranja-pera, baía ou lima, em suas variedades mais comuns. Uma mistura de C. reticulata e C. maxima, essas laranjas na verdade compartilham uma semelhança genética com tangerinas como a poncã em boa parte do genoma. Os resultados revelam uma diversidade genética muito pequena entre laranjas do tipo doce e tangerinas a partir de uma origem comum. “O desafio agora é entender por que elas são tão parecidas geneticamente e tão diferentes no paladar, por exemplo”, diz Takita. A laranja-azeda, usada, por exemplo, para fazer doces, é também um híbrido das espécies ancestrais da toranja e das tangerinas. As inferências que se podem fazer hoje a partir dos estudos genômicos, como se o filme fosse recriado do presente para o passado, indicam que o surgimento dessas frutas na natureza parece ter acontecido no sudeste asiático há alguns milhares de anos, antes de serem distribuídas pelo mundo. O consórcio de pesquisadores em busca de genomas cítricos começou a ser formado em 2005, com participação ativa dos pesquisadores do Centro de Citricultura. Depois de quase 10 anos de trabalho, porém, em que se tinha avan1 Cicatriz do enxerto: limão-cravo serve de cavalo para laranjeiras 2 Banco de germoplasma abriga grande diversidade de cítricos 3 Germinação em laboratório: variações genéticas controladas

1

64  z  julho DE 2014

2

çado com o sequenciamento de uma clementina espanhola, um tipo de mexerica, um grupo chinês se adiantou e publicou o genoma da laranja doce na revista Nature. Com resultados semelhantes em mãos, o grupo internacional decidiu ampliar o trabalho. “Sequenciamos mais seis genomas e produzimos uma discussão mais elaborada, que chega a contestar alguns pontos do trabalho chinês”, conta Machado. Os resultados mostram por que, no caso dessas plantas, cada vez se sabe menos o que é uma espécie. “Há quem diga que existem 163 espécies de Citrus, outros distinguem somente 16”, exemplifica o pesquisador. “Lineu classificou seis”, completa, referindo-se ao naturalista sueco tido como pai da classificação dos seres vivos, por ter criado no século XVIII o sistema binomial de denominação científica usado até hoje. Melhoramento

Com esse ponto de partida, Machado acredita que o enfoque genômico seja uma forma de “pensar alto sem tirar os pés do chão”. O grupo brasileiro já começou a estudar a ancestralidade do limão, que tem origem na espécie C. medica, com o sequenciamento do limão-cravo. A seleção não foi ao acaso: por sua capacidade de crescer em condições mais áridas, esse tipo de limão é usado em 85% da citricultura paulista como porta-enxerto para laranjas e tangerinas. “O norte do estado tem as melhores características para a produção de laranja para suco, mas o clima mais seco exigiria uma


irrigação inviável”, explica. O estudo genômico pode ajudar a identificar a base genética para essa resistência, assim como identificar genes associados a determinadas características para direcionar os cruzamentos e talvez até conseguir em laboratório a transferência de genes, chamada de cisgenia pelos especialistas (distinta da transgenia por envolver espécies de um mesmo grupo que podem gerar híbridos naturais). Com a importância econômica dos cítricos, esses estudos são essenciais não só para atender a demandas do mercado e orientar a busca por novas variedades e aperfeiçoamento do sabor e outras qualidades das frutas, mas também para fa- 3 zer frente a doenças. No caso das laranjas, destaMas o mercado bracam-se a clorose variesileiro é também uma gada dos citros (CVC), limitação. Grande parte causada pela bactéria das laranjas plantadas Os resultados revelam uma Xylella fastidiosa, e a no país se destina aos diversidade genética muito pequena huanglongbing, ou greesucos concentrados, de ning, que entrou no Bramaneira que a indúsentre laranjas e tangerinas sil há 10 anos e ameaça tria tem controle sobre os pomares. As tangea produção. O interesse rinas são resistentes à principal é quanto suco CVC, mas suscetíveis à há nas frutas, além de huanglongbing, além de sofrerem com de da fruta”, conta a pesquisadora. Para um preço baixo, o que criou uma crise a mancha marrom de alternária, uma avaliar as possibilidades dos cruzamen- entre plantadores de laranjas. Nos cálculos doença causada por fungo que provoca tos para a produção de novas varieda- de Machado, na última década cerca de 10 manchas nas folhas e frutos, e causa per- des para suco ou consumo direto, toda mil citricultores abandonaram a produção. da de folhas. A homogeneidade genética a população do Centro de Citricultura Mas ele avalia que essa crise pode acabar destacada no estudo da Nature Biotech- – pesquisadores, estudantes e funcio- por ter consequências positivas para o nology deixa claro por que os cítricos são nários – acaba servindo como cobaia em consumidor. Se os pesquisadores de Corpresas fáceis de microrganismos que ata- experimentos de avaliação sensorial, que deirópolis tiverem razão, nos próximos cam as plantações: quando uma árvore levam em conta o julgamento de carac- anos mais citricultores aceitarão experinão consegue resistir a uma doença, as terísticas como cor, sabor e facilidade de mentar o plantio de variedades produzioutras do mesmo tipo também não con- descascar, como mostra artigo de 2013 das como resultado de seu trabalho, e os seguem, já que são muito parecidas. Por no Journal of Agricultural Science. Além mercados e feiras podem passar a oferecer isso, uma grande parte das atividades do disso, as plantas são também classifica- uma diversidade maior de cítricos para Centro de Citricultura envolve produzir das quanto à sua produtividade, rendi- serem consumidos como frutas de mesa. variedades resistentes a essas doenças. mento de suco e época de frutificação, Uma perspectiva que dá água na boca. n “Alguns cruzamentos entre tangerinas, entre outras características. A produção acadêmica é uma faceta da por exemplo, produzem frutas que não têm valor direto para consumo, mas ge- personalidade desse centro de pesquiProjetos ram variabilidade genética importante”, sa no interior paulista. O outro lado de 1. Plataforma genômica aplicada ao melhoramento de citros (nº 08/57909-2); Modalidade Projeto Temátiexplica a engenheira agrônoma Mariân- sua vocação é contribuir para o aprimoco; Pesquisador responsável Marcos Antonio Machado gela Cristofani-Yali. Publicações recen- ramento dessa cultura em que o Brasil (IAC); Investimento R$ 3.533.624,89 (FAPESP). tes do grupo do Centro de Citricultura, tem destaque como o maior produtor de 2. Obtenção e avaliação de novas variedades de copas e porta-enxertos para citricultura de mesa (nº 11/18605como na revista Journal of Agricultural laranja do mundo e o terceiro em mexe0); Modalidade Projeto Temático; Pesquisadora responScience em 2013 e deste ano na Bragan- ricas, tangerinas e afins. A China ocupa sável Mariângela Cristofani-Yaly (IAC); Investimento R$ tia, expõem resultados dos esforços pa- o posto de maior produtor mundial de 859.670,11 ra a criação de novas possibilidades de cítricos, mas se concentra sobretudo em Artigo científico porta-enxerto e de variedades produto- tangerinas. “Com as novas técnicas poWU, G. A. et al. Sequencing of diverse mandarin, pummelo demos juntar o básico com o aplicado, ras de frutos. and orange genomes reveals complex history of admix“Primeiro introduzimos a resistência, criar uma plataforma para coisas novas”, ture during citrus domestication. Nature Biotechnology. On-line, 8 jun. 2014 (FAPESP). e depois voltamos a buscar a qualida- planeja Machado. pESQUISA FAPESP 221  z  65


ECOLOGIA y

Resquícios dos Andes na Amazônia

Pólen de Alnus

Árvores de clima frio já foram comuns na região Norte do Brasil

P

orto Velho, capital de Rondônia, hoje é muito quente e abafada, mas há 30 mil anos seu território provavelmente foi frio como a atual Porto Alegre, capital do Rio Grande do Sul, a 3.500 quilômetros (km) de distância. A temperatura média anual deve ter sido de no máximo 18º Celsius (C), seis abaixo da média atual. Não havia gelo, que cobria vastas áreas ao norte e ao sul do planeta, mas a temperatura nos invernos devia chegar a 10ºC, o suficiente para fazer os atuais moradores do sudoeste da Amazônia brasileira se sentirem enregelados. Por meio de análises de pólen e dos isótopos (variações) de carbono e nitrogênio de sedimentos retirados de até 20 metros de profundidade, pesquisadores do Pará e de São Paulo concluíram que a vegetação também deve ter sido diferente. Além de espécies de árvores ainda hoje encontradas na região, a floresta abrigava outras, típicas de clima frio, que desapareceram à medida que o clima se tornou mais quente. O Alnus, um dos gêneros de árvores hoje extintos, marca com clareza as mudanças de clima e vegetação na região entre o norte de Rondônia e sul do Amazonas. “O

66  z  julho DE 2014

Pólen de Weinmannia

Alnus só cresce em clima frio”, diz Marcelo Cohen, professor da Universidade Federal do Pará. Nesse estudo, ele identificou grãos de pólen de 65 grupos de árvores e plantas herbáceas retirados das amostras de sedimentos e acredita ter encontrado o primeiro registro de árvores de Alnus na Amazônia brasileira. Na América do Sul, árvores desse gênero são encontradas atualmente em regiões acima de 2 mil metros de altitude na cordilheira dos Andes, a pelo menos mil km de Porto Velho. Por serem leves e minúsculos, com diâmetro variando de 10 a 40 micrômetros (1 micrômetro equivale à milésima parte do milímetro), os grãos de pólen podem ser transportados facilmente pelo vento ou pela água da chuva e dos rios. “Na região estudada”, diz Cohen, “o percentual de pólen de Alnus chegou a 11% do total encontrado, muito acima do esperado para a dispersão pelos rios ou vento”. Segundo ele, essa era uma indicação de que as populações de Alnus, vindas provavelmente dos Andes, devem ter encontrado condições favoráveis para seu crescimento nas terras baixas do oeste da Amazônia entre 40 mil e 20 mil anos, e depois se extinguido, à medida que o clima se tornou mais


Pólen de Podocarpus

quente. Cohen identificou também pólen de outros gêneros de árvores de clima frio, como Hedyosmum, Weinmannia, Podocarpus, Ilex e Drymis, já identificados em outros pontos da Amazônia. Podocarpus, por exemplo, é um gênero de árvore do grupo das coníferas, como as araucárias, que ainda crescem no Sudeste e Sul do país. Com base nesse trabalho, torna-se possível imaginar uma floresta contínua unindo os Andes à Amazônia, com as espécies de árvores de clima frio mais comuns a oeste e as de clima quente a leste, naquele período. “Havia uma mistura de espécies de árvores, formando uma floresta glacial, muito singular, como não existe mais hoje”, diz Cohen. À medida que o clima se tornava quente, as plantas que crescem apenas sob temperaturas mais baixas desapareceram, permitindo a expansão das mais adaptadas ao clima quente ou resistentes a variações climáticas intensas. Os pesquisadores encontraram também trechos de rios abandonados que formaram lagos, depois preenchidos por sedimentos e cobertos por vegetação herbácea, formando as savanas.

fotos  eduardo cesar  grãos de pólen  Coleção do Laboratório C-14 do CENA/USP

florestas avançam

A identificação de muitas espécies arbóreas e de clima frio é também uma indicação de que o clima entre 40 mil e 30 mil anos era frio e úmido, e não frio e seco, como outros especialistas haviam indicado, segundo Luiz Carlos Pessenda, pesquisador no Centro de Energia Nuclear da Agricultura (Cena) da Universidade de São Paulo (USP). Pessenda obteve em 2001 as primeiras indicações de que o clima no sudoeste da Amazônia era úmido, provavelmente com chuvas regulares. Ele, com sua equipe, coletou amostras de solo em uma linha de 250 km entre Humaitá, sul do estado do Amazonas, e Porto Velho, e verificou o predomínio de plantas adaptadas à umidade. Estudos recentes com rochas de cavernas, realizados por outros grupos de São Paulo e de Minas Gerais, reforçam a hipótese de que o clima deve ter sido úmido e, portanto, chovido mais do que se pensava na região, principalmen-

te entre 30 mil e 20 mil anos, quando o nível do mar devia estar 100 metros abaixo do atual e o litoral, a 100 km da atual linha de costa e a América do Sul e a Antártida, unidas por um istmo de gelo. Além disso, capas de gelo com até 3,5 km de espessura cobriam boa parte da América do Norte, Europa e Oceania. Para Pessenda, esses resultados reforçam sua hipótese de que a umidade da floresta amazônica é que deve ter abastecido outra floresta híbrida, a da serra do Mar no estado de São Paulo, a quase 3 mil km de distância, cuja vegetação ele analisou em outros estudos. Há 30 mil anos, a serra do Mar era coberta por espécies de árvores de dois ecossistemas distintos, a mata atlântica e a mata de araucária. Depois, como na Amazônia, também ali sobreviveram apenas as resistentes a temperaturas mais elevadas e depois também desapareceram, cedendo espaço para os atuais campos (ver Pesquisa FAPESP nº 160). Nos últimos 15 anos, Pessenda tem examinado pólen e a proporção entre as formas (isótopos) de carbono e nitrogênio de sedimentos de todo o país, além de ter formado uma coleção com cerca de 4.500 amostras de grãos de pólen que fundamentam trabalhos como o de Cohen, que fez o pós-doutorado em seu laboratório em 2011. Seus estudos revelam a constante transformação das florestas e a retração dos campos, que já foram mais amplos por todo o país, desde aproximadamente 4 mil anos. Segundo Pessenda, a maior parte das áreas hoje ainda ocupadas por campos em São Paulo e Rondônia, por exemplo, tende a desaparecer, mesmo sem a expansão das cidades e da agropecuária, e ser naturalmente ocupadas por florestas, em algumas dezenas de séculos, em resposta ao clima atual. n Carlos Fioravanti

Artigo científico COHEN, M.C.L. et al. Late Pleistocene glacial forest of Humaitá-Western Amazonia. Palaeogeography, Palaeoclimatology, Palaeoecology. dez. 2013.

pESQUISA FAPESP 221  z  67


especial biota educação XiV

Os elementos das florestas Alterações nos ciclos de compostos orgânicos podem acentuar deterioração dos ecossistemas

R

eduzida a cerca de 10% de sua área original após 500 anos de desmatamento, a mata atlântica tem uma grande capacidade de armazenar carbono no solo e em suas árvores. “Cada hectare de mata atlântica pode estocar até 500 toneladas de carbono, enquanto na Amazônia esse número não chega a 300 toneladas”, disse a agrônoma Simone Vieira, da Universidade Estadual de Campinas (Unicamp), em sua palestra do Ciclo de Conferências Biota-FAPESP Educação, no dia 25 de junho, em São Paulo. Apesar de estocar carbono de modo mais eficiente, a mata atlântica ocupa apenas 130 mil quilômetros quadrados, área quase quatro vezes menor que a da floresta amazônica. Segundo Simone, o solo da mata atlântica estoca proporcionalmente mais carbono que o da Amazônia possivelmente devido às temperaturas mais baixas do Sudeste do país. A variedade de paisagens da mata atlântica – com vegetações de dunas, restingas, mangues, matas de araucária e florestas úmidas densas – contribui para que a mata atlântica apresente variações no tipo de solo, na disponibilidade de água e na duração dos períodos de seca, fatores que influenciam a capacidade do ecossistema de armazenar carbono. Simone e seus colaboradores pretendem entender como as variações de temperatura previstas

68  z  julho DE 2014

para as próximas décadas podem influenciar a estocagem de carbono na mata atlântica. Em estudos do programa Biota-FAPESP, eles investigam esse efeito coletando amostras de solo a diferentes altitudes. Assim, tentam entender como a quantidade de carbono armazenada varia segundo a temperatura. “Resultados preliminares sugerem que, quanto mais alta a temperatura, menor é a capacidade de estocar carbono”, disse Simone. Se os resultados se confirmarem, o aumento de poucos graus na temperatura do planeta pode transformar a mata atlântica, hoje um sorvedouro de gás carbônico (CO2), em fonte emissora do composto, o principal gás do efeito estufa. Mudanças no uso e no manejo do solo também afetam a emissão de gases na Amazônia. Um estudo recente publicado na Global Change Biology mostrou que perturbações ambientais como o corte seletivo de árvores e o uso de fogo para manter pastagens emitiram 54 milhões de toneladas de CO2 em 2010 (40% do carbono emitido pelo desmatamento na região naquele ano). Outro trabalho deste ano, coordenado pela química Luciana Gatti, do Instituto de Pesquisas Energéticas e Nucleares, descreveu um cenário mais preocupante. Ela calculou o balanço de carbono da Amazônia em 2010 e 2011, os anos mais quentes em três décadas e com variação

Mata atlântica (acima): solo capaz de reter mais carbono que o da floresta amazônica (ao lado) Ao lado, as biólogas Gabriela Nardoto e Simone Vieira e o agrônomo Plínio Camargo


1

fotos 1, 3 a 5 eduardo cesar  2 léo ramos

3

2

4

significativa no regime de chuvas. Em 2011, muito úmido, a floresta absorveu 250 milhões de toneladas de carbono, enquanto as queimadas lançaram 300 milhões de toneladas à atmosfera. Em 2010, bem mais seco, a floresta emitiu mais do que absorveu por causa da falta de chuvas e do aumento das queimadas (ver Pesquisa FAPESP nº 217). Esses resultados sugerem que, se o aumento da temperatura se concretizar, a região

5

pode se tornar emissora de CO2, intensificando o aquecimento global. As queimadas na Amazônia para a abertura de pastagens, exploração da madeira e agricultura estão alterando ainda o ciclo de nutrientes como o nitrogênio, segundo a bióloga Gabriela Nardoto, da Universidade de Brasília (UnB), que participou do ciclo de conferências. A substituição de floresta por pastagens e outras atividades agrícolas tem

reduzido a absorção de nutrientes nesses ecossistemas tropicais. “A ciclagem de nutrientes é uma das funções mais importantes na regulação dos ecossistemas”, disse Gabriela. É que a disponibilidade de nutrientes determina a distribuição de plantas em diferentes ambientes. A baixa disponibilidade de nitrogênio e fósforo também pode limitar o crescimento das florestas secundárias (áreas convertidas em pastagens e depois abandonadas) na Amazônia. Ao mesmo tempo, ela ressaltou, as queimadas alteram o ciclo do nitrogênio, essencial para o crescimento das plantas. “O nitrogênio, em estado gasoso, representa 78% da atmosfera”, disse. “Mas, para que seja aproveitado pelas plantas, é necessário que as bactérias em suas raízes o capturem e o transformem em outros compostos, que serão então transformados no solo em amônio e nitrato.” O nitrogênio armazenado na forma de amônio e nitrato é um dos parâmetros usados pelo agrônomo Plínio Barbosa de Camargo para avaliar a qualidade da água do município de Extrema, em Minas Gerais. Camargo, que também esteve na última edição do Biota-FAPESP, busca indicadores para avaliar a qualidade da água em áreas de reflorestamento na bacia do ribeirão das Posses. “A ideia é comparar áreas reflorestadas com diferentes idades de plantio e áreas agrícolas e ver se houve melhora nas condições de qualidade e quantidade de água.” Esse foi o último encontro do Ciclo de Conferências Biota-FAPESP Educação, iniciado em 2013. Segundo Carlos Joly, coordenador do Biota-FAPESP, o programa pretende lançar em 2015 uma chamada de projetos que contribuam para melhorar a qualidade da educação científica e ambiental de professores e alunos do ensino médio. n Rodrigo de Oliveira Andrade

+10

pESQUISA FAPESP 221  z  69


tecnologia  Biofísica y

Abelhas vigiadas

Microssensores ajudam a entender comportamento de Apis mellifera exposta a pesticidas e mudanças climáticas Dinorah Ereno

A Zangão da espécie Apis mellifera africanizada com microssensor colado no tórax

70  z  julho DE 2014

população de abelhas registra um expressivo declínio em vários países, inclusive no Brasil. Em agosto do ano passado, a revista Time trazia na capa um alerta para o risco de desaparecimento das abelhas melíferas, com a chamada “O mundo sem abelhas” e o alerta: “O preço que pagaremos se não descobrirmos o que está matando as melíferas”. O desaparecimento das fabricantes de mel preocupa não só pela ameaça à existência desse produto, mas também porque as abelhas têm chamado a atenção principalmente pelo importante papel que representam na produção de alimentos. Não é para menos. Elas são responsáveis por 70% da polinização dos vegetais consumidos no mundo ao transportar o pólen de uma flor para outra, que resulta na fecundação das flores. Algumas culturas, como as amêndoas produzidas e exportadas para o mundo inteiro pelos Estados Unidos, dependem exclusivamente desses insetos na polinização e produção de frutos. A maçã, o melão e a castanha-do-pará, para citar alguns exemplos, também são dependentes de polinizadores. Entre as prováveis causas para o desaparecimento das abelhas estão os componentes químicos presentes nos neoni-

cotinoides, classe de defensivos agrícolas amplamente utilizados no mundo. Além de pesticidas, outros fatores, como mudanças climáticas com maior ocorrência de eventos extremos, infestação por um ácaro que se alimenta da hemolinfa (correspondente ao sangue de invertebrados) das abelhas, monoculturas que fornecem pouco pólen como milho e trigo e até técnicas para aumentar a produção de mel, podem ser responsáveis pelo fenômeno conhecido como distúrbio de colapso de colônias (CCD, na sigla em inglês), que provoca a desorientação espacial desses insetos e morte fora das colmeias. O distúrbio já provocou a morte de 35% das abelhas criadas em cativeiro nos Estados Unidos. Na busca por respostas que ajudem a combater o problema, o Instituto Tecnológico Vale (ITV), em Belém, no Pará, desenvolveu em colaboração com a Organização de Pesquisa da Comunidade Científica e Industrial (CSIRO), na Austrália, microssensores – pequenos quadrados com 2,5 milímetros de cada lado e peso de 5,4 miligramas –, que são colados no tórax das abelhas da espécie Apis mellifera africanizada (abelhas com ferrão resultantes de variedades europeias e africanas) para avaliação do seu comportamento sob a influência de


fotos  vale/csiro

pesticidas e de eventos climáticos. Uma parte do experimento está sendo conduzida na Austrália e a outra no Brasil. No estado australiano da Tasmânia, ilha ao sul do continente da Oceania, será feito um estudo comparativo com 10 mil abelhas para avaliar como elas reagem quando expostas a pesticidas. Para isso, duas colmeias foram colocadas em contato com pólen contaminado e outras duas não. “Se for notada qualquer alteração no comportamento dos insetos expostos ao pesticida, como incapacidade de voltar para a colmeia, desorientação ou mesmo morte precoce, o produto passará a ser o principal suspeito do distúrbio de colapso de colônias”, diz o físico Paulo de Souza, coordenador da pesquisa e professor visitante do ITV. O projeto foi iniciado em setembro do ano passado e seu término está previs-

to para abril de 2015, com a divulgação dos resultados no segundo semestre. “A principal razão para a escolha da Tasmânia é que se trata de um ambiente distinto, onde não há poluição e metade do território é composta por florestas”, diz Souza, que também é professor da Universidade da Tasmânia. Como as melíferas australianas pesam em torno de 105 miligramas, o sensor representa cerca de 5% do seu peso. Já as abelhas da mesma espécie que vivem no Brasil pesam cerca de 70 miligramas – o que levou os pesquisadores a fazerem testes em túneis de vento para avaliar se o sensor poderia ter influência sobre a sua capacidade de voo. “Avaliamos a batida das asas e a inclinação do corpo em abelhas com o sensor e sem ele, e verificamos que não houve alteração na capacidade de voar”, diz Souza.

A parte do experimento que está sendo feita no Brasil tem como foco inicial o monitoramento de 400 abelhas durante três meses para avaliar em que medida as mudanças do clima, principalmente a alteração do regime de chuvas na Amazônia, afetam os insetos. “Não sabemos como elas vão se comportar diante das projeções de aumento da temperatura e de alterações no clima devido ao aquecimento global”, diz Souza. Os estudos estão sendo feitos em um apiário no município de Santa Bárbara do Pará, próximo a Belém. “Cada sensor tem um código gravado, que funciona como se fosse uma identidade de cada abelha”, diz Souza. Com ele é possível avaliar, em detalhes, todos os indivíduos da colmeia. Concluída essa etapa da pesquisa, um segundo estudo terá início, desta vez com abelhas nativas pESQUISA FAPESP 221  z  71


Próxima geração de chips será capaz de captar dados ambientais como temperatura, umidade e insolação sem ferrão do Pará, que parecem sofrer mais o impacto da alteração climática do que as europeias. Embora não sejam grandes produtoras de mel, elas são excelentes polinizadores. Como as abelhas têm um ciclo de vida relativamente curto, de cerca de dois meses, será possível acompanhar várias gerações. Os sensores que estão sendo testados em campo fazem parte de uma primeira 1 geração desenvolvida pelo ITV e CSIRO – e outros já estão a caminho. “Uma das inovações obtidas é a distância de co- 2004 a Marte. Essa missão de exploração municação que conseguimos alcançar, geológica do planeta vermelho, que busde até 30 centímetros”, ressalta o pes- ca sinais da presença passada de água, quisador. Isso foi feito com a melhoria continua em atividade. da qualidade da antena do chip, o que O microssensor é composto por um aumentou a sua capacidade de se co- chip com memória de armazenamento municar a distância. “A CSIRO desen- de 500 mil bytes – suficiente para guarvolveu o sistema wi-fi (sem fio) e fez a dar dados a cada segundo por quase uma modificação na antena.” Durante o seu semana –, uma antena e uma bateria. doutorado, Souza trabalhou As informações sobre o mo1 Tamanho do com um grupo de pesquisa vimento das abelhas captadas microssensor dedicado a construir sensores pelo chip são retransmitidas comparado com para missões espaciais, como para antenas instaladas no enmoeda de R$ 1 os que foram instalados no torno da colmeia e em esta2 Físico Paulo de braço mecânico do jipe robóções de alimentação, e depois Souza segura uma tico Opportunity, enviado em transferidas para um centro colmeia no Pará

de controle. Com os dados coletados no campo, os pesquisadores constroem um modelo tridimensional da movimentação dos insetos que permite saber se eles estão agindo naturalmente ou se, por algum motivo, estão desorientados e não conseguem retornar aos seus locais de origem. Cada antena custa cerca de US$ 300, o que torna a técnica mais aplicável em comparação com outros dispositivos similares, cujo preço varia em torno de US$ 10 mil. “O próprio chip, de US$ 0,30, é muito mais barato do que os que estão no mercado e são vendidos a US$ 6.” O físico ressalta que, desde o início, eles sempre buscaram um processo de manufatura que permitisse a produção em escala industrial ao menor preço possível. A próxima geração de chips, em fase final de desenvolvimento, será capaz de gerar e armazenar a sua própria energia e também de captar a temperatura, umidade e insolação do ambiente. Os planos não param por aqui. “Queremos desenvolver, em quatro anos, um chip do tamanho de um grão de areia para monitoramento de mosquitos transmissores da dengue e malária”, diz Souza. Entre as várias estratégias estudadas para a aplicação desse diminuto equipamento, a mais promissora, na avaliação do pesquisador, é lançar um jato de spray sobre os insetos. Ampliar o raio de ação dos sensores também é uma das metas do projeto. “Queremos chegar a centenas de metros para explorar a plataforma tecnológica futuramente em outras aplicações, como fuselagem de aeronaves, roupas de funcionários em áreas de risco e óculos de monitoramento à exposição ultravioleta”, ressalta. As duas instituições destinaram ao projeto – do qual participam 23 pesquisadores de diversas áreas do conhecimento – US$ 25 milhões para um período de cinco anos. Agrotóxicos e abelhas

2

72  z  julho DE 2014

O comportamento das abelhas também é o foco de vários estudos conduzidos por um grupo de 20 pesquisadores, sob a coordenação do professor Osmar Malaspina, do Instituto de Biociências da Universidade Estadual Paulista (Unesp) de Rio Claro, no interior paulista. Além de Malaspina, o núcleo de pesquisa é composto pelas professoras Roberta Nocelli e Elaine Cristina da Silva Zacarin,


Movimento em detalhes Microssensores são usados para monitorar o comportamento das abelhas no ambiente Antena

5,4 mg

Memória 500 Kb 2,5 mm

1 Um código gravado no chip funciona como se fosse uma identidade de cada indivíduo da colmeia

2 As informações sobre o movimento das abelhas ficam gravadas no chip, que tem memória suficiente para guardar dados a cada segundo por quase uma semana

Chip

Modelo 3D

Com as informações captadas, é criado um modelo tridimensional da movimentação dos insetos, que permite avaliar seu comportamento

Central de controle

Colmeias

Antenas

30 cm

campo aberto

3 Quando as abelhas passam a uma distância de até 30 cm de antenas no entorno das colmeias, os dados são captados e enviados para uma central de controle Fonte vale/CSIRO

fotos 1 willian abreu/vale 2 vale/csiro  infográficO ana paula campos  ilustraçãO pedro hamdan

4

ambas da Universidade Federal de São Carlos (UFSCar), e do professor Stephan Malfitano de Carvalho, da Universidade Federal de Uberlândia (UFU). “Somos o primeiro grupo de pesquisa no Brasil a estudar a relação entre agrotóxicos e abelhas”, diz Malaspina. Ele pesquisa o tema desde o seu mestrado, na década de 1970, mas só a partir de 2000 voltou a se dedicar intensamente ao assunto em função de reclamações de apicultores que estavam perdendo abelhas após a aplicação aérea de inseticidas, principalmente para combater pragas que atacam os canaviais. “Essas perdas começaram a ser relatadas após a entrada de novos produtos no mercado”, relata. Segundo Malaspina, 20 mil colônias de abelhas foram perdidas no estado de São Paulo entre 2008 e 2010; 100 mil em Santa Catarina apenas em 2011; e as estimativas apontam para perdas anuais de 40% de colmeias no Rio Grande do Sul

e em Minas Gerais. Cada colônia ou colmeia tem, em média, 50 mil indivíduos. “As informações sobre as perdas foram passadas por apicultores, mas não sabemos a causa da morte, porque as abelhas podem morrer por vários fatores além dos inseticidas, como doença, manejo, seca extrema, entre outras variáveis.” Em alguns casos, como a de um apicultor do município de Boa Esperança do Sul, no interior de São Paulo, a relação entre causa e efeito ficou comprovada. “Em 2008, em uma terça-feira ele tinha 400 colmeias, na quarta houve uma aplicação aérea num local próximo e apenas um dia depois, na quinta, todas as abelhas estavam mortas”, diz Malaspina. O resultado de uma análise feita apontou que um inseticida neonicotinoide era o responsável pelas mortes. Um dos estudos do seu grupo para avaliar o efeito dos agrotóxicos no organismo das abelhas é feito dentro do laboratório

e em estufas que simulam as condições de colmeias. Resultados de testes feitos pelos pesquisadores apontam que os agrotóxicos atingem o sistema digestório e o cérebro das abelhas. Em casos mais graves, elas não conseguem se alimentar e morrem por inanição. Outros experimentos estão sendo feitos para avaliar de que forma esses insetos, quando conseguem sobreviver à intoxicação, são afetados. Esse conhecimento é importante para proteger a grande variedade de abelhas existente no Brasil, com cerca de 2 mil espécies descritas. Além da preocupação com as perdas dos apicultores, existe o risco para as culturas que dependem delas para a polinização. O maracujá, por exemplo, só produz se for visitado pela mamangava, assim como a berinjela, o pimentão e outras espécies vegetais que, por terem flores mais fechadas, precisam de polinizadores específicos. n

Projetos 1. Interação entre pesticidas e infecção por Nosema em Apis mellifera africanizada: efeitos biológicos e detecção de biomarcadores celulares (nº 2013/09419-4); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Elaine Cristina da Silva Zacarin (UFSCar); Investimento R$ 199.981,70 (FAPESP). 2. Avaliação dos efeitos adversos da exposição aos pesticidas e patógenos em abelhas: estudo de biomarcadores celulares em órgãos-alvo (nº 2008/51473-8); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Elaine Cristina da Silva Zacarin (UFSCar); Investimento R$ 99.150,00 (FAPESP).

pESQUISA FAPESP 221  z  73


Sensoriamento remoto y

Análise remota Software automatiza a avaliação de queima de cana em imagens de satélite Marcos de Oliveira

D

escobrir um endereço qualquer, ver o traçado e os arredores de um lugar de destino de uma viagem próxima são usos que tornaram populares as imagens de satélite acessadas pela internet. No âmbito profissional, principalmente na agricultura, essas imagens já permitem monitorar grandes áreas e acompanhar e estimar a produção de uma plantação. Isso acontece por meio de técnicas de sensoriamento remoto usadas para processar e interpretar as fotos e dados obtidos por sensores a bordo de satélites. Recentemente, uma contribuição para esse tipo de monitoramento agrícola, relacionado à cultura da cana-de-açúcar, ganhou o primeiro lugar na categoria Trabalhos Acadêmicos na quinta edição do Prêmio Top Etanol, uma iniciativa da União da Indústria de Cana-de-Açúcar (Unica) em parceria com outras associações de produtores de cana, além de indústrias como Dedini, Basf, Monsanto e Syngenta. O grupo vencedor é do Instituto Nacional de Pesquisas Espaciais (Inpe), em São José dos Campos. À frente do estudo esteve o pesquisador Marcio Pupin Mello, que desenvolveu um software para automatizar o mapeamento por imagens de satélites de culturas de cana ao longo da safra. O método, que foi publicado em 2013 na revista IEEE Transactions on Geoscience and Remote Sensing, começou a ser delineado na Inglaterra em 2000 pelo professor Carlos Vieira, atualmente na Universidade Federal de Santa Catarina (UFSC), que na época cursava o doutorado na Universidade de Nottingham. Em 2007, o método começou a ser 74  z  julho DE 2014

adaptado em aplicações dentro do Canasat, programa do Inpe para monitorar via satélite o plantio de cana-de-açúcar na região Centro-Sul do país. Iniciado em 2003, o Canasat, além de estimar e fazer o mapeamento do cultivado de cana, também tem a função de identificar se determinada colheita foi feita com ou sem a queima da palha na pré-colheita. A legislação agroambiental do estado de São Paulo prevê a gradual diminuição da prática da queima e a completa eliminação desse tipo de manejo agrícola em 2031. Para antecipar o estabelecido na O novo sistema legislação, a Secretaria do Meio poderá ser Ambiente do Estado de São Paulo firmou em 2007 um protocousado para lo com o setor sucroenergético para eliminar essa prática, em verificação de quase todo o estado, até 2014. Desde 2006, as imagens são utidesmatamento lizadas para avaliar a gradual em florestas ao redução da área queimada no estado de São Paulo. Entre 2006 longo do tempo e 2013, essa área foi reduzida de 65,8% para 16,3%, respectivamente. Essa análise é feita por técnicos que examinam imagem por imagem para obter as respostas sobre o tipo de colheita da cana-de-açúcar: com ou sem o uso do fogo. Apesar de atingir níveis muito altos de precisão, esse trabalho de mapeamento baseado em interpretação visual é moroso, porque os técnicos precisam interpretar e mapear cada área de cana


Resultado ao longo do tempo Imagens de satélite confrontadas com fotos do canavial

Cana queimada e com aplicação de calcário

Cana colhida crua e depois queima da palha

Área de cana com corte mecanizado

imagens”, diz o professor Bernardo Rudorff, que se aposentou do Inpe, onde foi coordenador do Canasat, e agora é sócio da empresa Agrosatélite, em Florianópolis, Santa Catarina, especializada em sensoriamento remoto na agricultura.

fotos  Léo ramos e Canasat / Inpe

monitoramento ambiental

colhida em várias imagens coletadas ao longo do tempo. O novo sistema permite que se faça esse mesmo trabalho, mas com análise automática. “Ele processa as imagens de satélites obtidas em datas diferentes ao longo da safra e permite identificar, de forma automática, se a colheita da cana-de-açúcar foi feita com ou sem a queima da palha”, diz Mello, que trabalhou no desenvolvimento do novo sistema durante seu mestrado e parte do doutorado no Programa de Pós-graduação em Sensoriamento Remoto do Inpe. “A partir de imagens dos satélites norte-americanos Landsat-5 e Landsat-7, identificamos mudanças na energia refletida nas áreas de cana”, explica Mello, que fez parte do seu doutorado no Instituto de Geoinformática da Universidade de Münster, na Alemanha, e atualmente é coordenador de pesquisa da área de sensoriamento remoto da Boeing no Brasil. “Identificamos a variação da energia refletida pela cana ao longo do tempo. Com essas informações podemos fazer a interpretação do que existe no campo, se palha, ou a planta em pé, por exemplo, e fazer a identificação de cada área colhida ao longo da safra sobre as

O novo sistema chamado de Stars, do inglês Spectral-Temporal Analysis by Response Surface, também poderá ser útil para análises de desmatamentos. A avaliação automática poderá ser feita por meio da verificação de mudanças dos padrões espectrais das áreas de vegetação ao longo do tempo, no caso de florestas para solo exposto. “Acredito que esse método possa trazer benefícios aos órgãos de fiscalização, tanto para verificação de queima da cana como para monitoramento ambiental de florestas”, diz Mello. No momento o software ainda não está em uso profissional, mas os algoritmos podem ser acessados no site do Inpe em www.dsr.inpe.br/~mello. Para melhorar o processamento das imagens e tornar o software operacional, além da possibilidade de explorar outras aplicações, Mello diz que espera um próximo estudante de pós-graduação no Inpe, onde é coorientador, para continuar o trabalho. “Sou formado em engenharia e implementei o software para minha pesquisa, mas se agora um especialista em programação de softwares assumisse o trabalho poderia torná-lo um produto”, diz Mello. Automatizar softwares para a área de sensoriamento remoto principalmente para análise temporal de imagens é uma exigência do setor. “Existem cada vez mais satélites com ampla capacidade de obtenção de imagens da superfície terrestre, de dados do solo e de culturas agrícolas. Sendo assim, é preciso aumentar a automatização das análises”, diz Rudorff. n

Artigos científicos Aguiar, D. A. et al. Remote sensing images in support of environmental protocol: Monitoring the sugarcane harvest in São Paulo state, Brazil. Remote Sensing. v. 3, n. 12, p. 2682-703. 2011. Mello, M.P. et al. Stars: A new method for multitemporal remote sensing. IEEE Transactions on Geoscience and Remote Sensing. v. 51, n. 4, p. 1897-913. abr. 2013.

pESQUISA FAPESP 221  z  75


computação y

Olhar eletrônico IBM em São Paulo cria aplicativo que permite a cegos “enxergar” conteúdo de placas e painéis Yuri Vasconcelos

P

arece mágica, mas a cena pode se tornar corriqueira dentro de alguns anos. Em um aeroporto qualquer do planeta, um deficiente visual aponta seu smartphone para o painel de voos e, imediatamente, o dispositivo narra a relação de partidas e chegadas apresentada no display. A cena se repete em estações ferroviárias e pontos de ônibus dotados de mostruários com os horários das linhas e em ambientes corporativos – nesse caso, indivíduos cegos poderão saber quais são os produtos que estão expostos em máquinas de venda automática de alimentos, como refrigerantes, sucos, batatas e sal-

gadinhos diversos. Isso será possível com uma tecnologia gestada no IBM Research Brasil, o laboratório de pesquisa da multinacional norte-americana de informática localizado em São Paulo. Batizado de Reconhecimento de Conteúdo Dinâmico Assistido por Marcadores, o aplicativo tem recursos de visão computacional, inteligência artificial e de processamento de imagens para fazer o reconhecimento de textos e objetos em ambientes públicos. “A novidade em relação a aplicativos similares de reconhecimento de imagem é o uso de marcadores”, diz Andréa Mattos, a jovem cientista da IBM que liderou a criação do aplicativo. Os marcadores,

um conjunto de quatro adesivos com diferentes imagens gráficas, são posicionados nos cantos superiores e inferiores do objeto-alvo. “Eles são pontos de referência e facilitam que os objetos da cena sejam detectados e identificados pelo aplicativo”, diz Andréa, de 28 anos. Num aeroporto, por exemplo, um indivíduo cego só precisaria pedir ajuda para localizar o painel de voos delimitado pelos marcadores. Depois, apontando seu smartphone ou tablet para ele, poderia checar se seu avião está ou não no horário. Caso tivesse dificuldade para fazer o perfeito enquadramento do painel – condição necessária para o programa funcionar e as

Como funciona o aplicativo Teste com um dispositivo protótipo mostrou índice de eficiência de 90%

Marcadores são afixados nos cantos do

O deficiente visual deve apontar a câmera

objeto-alvo que se pretende reconhecer

de seu smartphone para a máquina


foto léo ramos  infográfico ana paula campos  ilustraçãO samuel rodrigues

Exemplos de marcadores afixados nos objetos que se quer reconhecer

informações visuais serem lidas e transformadas em avisos sonoros –, escutaria instruções como “desloque a câmera para a direita” ou “levante um pouco a câmera”. “Cada marcador tem uma posição precisa em relação aos demais. A orientação para correção do enquadramento é possível desde que pelo menos um dos quatro marcadores tenha sido captado pela câmera do smartphone”, explica Andréa. Para que o aplicativo funcione também é necessário que os objetos ou textos a serem reconhecidos sejam exibidos em um layout com posições fixas. As mensagens no painel passam por alterações constantes da mesma forma que os produtos nas máquinas de venda automática. O indispensável é que as posições onde são mostrados os produtos ou as informações sejam imutáveis. Depois, ele automaticamente busca em sua memória pelo template daquela cena, espécie de máscara com posições fixas no lugar em que estão posicionados os textos ou as imagens a serem reconhecidas. Numa máquina de venda automática, o template nada mais é do que um diagrama mostrando os nichos onde os produtos ficam enfileirados; num painel de voos, o template mostra o espaço, dentro do display, em que as informações são exibidas. Por fim, o programa parte para a identificação e a leitura do conteúdo. No caso das máquinas, isso se dá por um método comparativo. O aplicativo tem guardado em sua memória um banco de imagens com a fotografia de todos os produtos

vendidos por ela – lata do refrigerante X, saco de batata frita Y, pacote de biscoito Z etc. Ele compara os produtos captados pela câmera do usuário com as fotos armazenadas e verbaliza a oferta de mercadorias. Numa placa ou painel com informações escritas, o programa reconhece as letras e os números, e faz a leitura do que encontrou para o usuário. A pesquisadora realizou uma bateria de testes com máquinas de venda automática para provar a viabilidade da técnica. Para conferir a eficiência do aplicativo, foram feitas 60 fotografias, totalizando 240 marcadores, já que cada máquina possui quatro marcadores. O índice de detecção foi de 99,16%. O reconhecimento dos produtos dentro das máquinas foi de 89,85%, o que, segundo Andréa, é uma taxa elevada, considerando os desafios do problema. Cegos ou com visão reduzida

Uma das vantagens da inovação, cujo desenvolvimento também contou com a participação dos pesquisadores Carlos Cardonha, Diego Gallo, Priscilla Avegliano, Ricardo Herrmann e Sérgio Borger, todos da IBM, é conferir mais autonomia a pessoas cegas ou com visão reduzida. O trabalho foi premiado na 11ª Conferência Web for All, que reconhece os melhores projetos mundiais voltados à acessibilidade e internet, realizada em abril deste ano na Coreia do Sul. A tecnologia foi submetida ao United States Patent and Trademark Office (Uspto), o

escritório norte-americano de patentes. Esta foi uma das 19 patentes solicitadas pela IBM Brasil ao Uspto somente nos seis primeiros meses deste ano. Essa não é a primeira nem a única tecnologia de visão computacional para reconhecimento de imagens existente no mundo. O uso de códigos de barras é uma técnica promissora. Afixados em produtos, eles podem ser lidos pelo escâner instalado em um smartphone. Mas são limitados quando o conteúdo é dinâmico – como é o caso de painéis de voos, onde as informações sempre mudam. “Vários grupos no mundo tentam criar dispositivos capazes de reconhecer objetos, mas não encontramos na literatura que envolve visão computacional nenhuma tecnologia como a nossa, capaz de reconhecer produtos em ambientes não controlados, ou seja, sujeitos à variação de iluminação e a interferências visuais diversas”, afirma Sérgio Borger, gerente de pesquisas da área de Sistemas de Engajamento da IBM. “Vamos fazer novos ensaios para avaliarmos questões ligadas à usabilidade da nossa aplicação”, diz Borger. n

O aplicativo orienta como corrigir o

O programa busca em sua memória

A imagem é identificada e o programa

dispositivo por meio dos marcadores

a imagem daquele objeto-alvo

verbaliza o produto para o deficiente visual

z  77


Medicina Nuclear y

Instrumento de radiação Reator Multipropósito Brasileiro deve suprir o país de radiofármacos para diagnóstico e tratamento de doenças

S

e tudo correr conforme o planejado e não faltarem os recursos orçamentários previstos, em cinco anos o Brasil poderá se tornar autossuficiente na produção de radioisótopos, substâncias radiativas que podem ser usadas no diagnóstico e tratamento de várias doenças, além de ter aplicações na indústria, na agricultura e no meio ambiente. O governo federal deverá investir cerca de US$ 500 milhões, o equivalente a cerca de R$ 1,09 bilhão, na construção do Reator Multipropósito Brasileiro (RMB), um grande centro de pesquisa que será erguido no município de Iperó, na região de Sorocaba, a 130 quilômetros de São Paulo. A construção do empreendimento é uma das metas do Ministério da Ciência, Tecnologia e Inovação (MCTI) e está alinhado com o Programa Nuclear Brasileiro (PNB). “Além de produzir radioisótopos para aplicações na saúde, na indústria e na agricultura, o reator realizará testes de combustíveis e materiais estruturais para centrais nucleares”, explica o coordenador técnico do projeto, José Augusto Perrotta, assessor da presidência da Comissão Nacional de Energia Nuclear (CNEN), órgão do MCTI responsável pela realização do RMB. “O reator também fornecerá feixes de nêutrons para estudos científicos e tecnológicos e formará e treinará profissionais para atender às necessidades do PNB.”

78  z  julho DE 2014

Entre os produtos mais importantes do novo reator de pesquisa brasileiro estará o radioisótopo molibdênio-99 (99Mo), que é produzido a partir da fissão do urânio-235 (235U). Com o 99Mo é construído um dispositivo denominado “gerador de tecnécio”. O tecnécio-99m (99mTc, m de metaestável) é um radioisótopo que é a base de radiofármacos utilizados em cerca de 80% dos procedimentos de diagnósticos da medicina nuclear. No Brasil, são realizados cerca de 2 milhões de procedimentos dessa área médica por ano. “O país precisa importar todo o molibdênio-99 de que necessita”, diz Perrotta. “Em 2013, foram importados em torno de 21 mil curies [curie (Ci) é a unidade de medida de atividade radioativa] de 99Mo, a um custo total de US$ 10,1 milhões.” Segundo ele, o RMB deverá produzir no mínimo mil curies por semana de molibdênio-99, o que corresponde a cerca de 50 mil curies por ano. Hoje existem no mundo entre 240 e 250 reatores nucleares de pesquisa em operação e alguns produzem radioisótopos para as mais diversas aplicações. Para a medicina nuclear, só o Canadá responde por 40% da produção mundial. Quando, em 2009, o principal reator canadense teve problemas e ficou inoperante temporariamente, houve uma grande queda da oferta, o que levou a uma crise nessa área da medicina. O problema pode se tornar mais grave em poucos anos por-

Latinstock / SIMON FRASER/MEDICAL PHYSICS, RVI, NEWCASTLE UPON-TYNE / SCIENCE PHOTO LIBRARY/SPL DC

Evanildo da Silveira


Tomografia feita com aplicação de tecnécio-99m no paciente mostra câncer nos ossos superiores das pernas pESQUISA FAPESP 221  z  79


que a maioria dos reatores em atividade está perto do fim de sua vida útil e será desativada. O RMB e seus laboratórios associados – de processamento de radioisótopos, de análise de materiais irradiados e de feixes de nêutrons – serão instalados numa área de 2 milhões de metros quadrados (m2), adjacente ao Centro Experimental de Aramar, da Marinha do Brasil, que cedeu para o RMB um terreno de 1,2 milhão de m2. Os outros 800 mil m2 serão desapropriados pelo governo do estado de São Paulo e também cedidos ao empreendimento. Quanto ao reator propriamente dito, Perrotta explica que ele será do tipo de piscina aberta, no qual a água é usada como moderadora de nêutrons, blindagem para radiação e refrigeração, na retirada do calor gerado nas reações nucleares. “A água mantém a temperatura do reator menor que 100ºC, o que dá maior segurança ao sistema”, diz Perrotta. “Esse tipo de reator é mais simples do que os das usinas

nucleares. O grau de segurança e confiabilidade é maior e por isso eles podem ficar em centros de pesquisa e universidades próximos de cidades.” O novo reator terá uma potência térmica de até 30 MW, o que o situa entre os de tamanho intermediário no mundo. “O RMB tem como referência o projeto do reator Open Pool Australian Lightwater (Opal), da Austrália, com potência de 20 MW, inaugurado em 2007”, conta Perrotta. “O projeto básico do nosso reator foi desenvolvido em cooperação entre a CNEN e sua similar da Argentina, a Comisión Nacional de Energía Atómica (CNEA). Para isso, foi contratada a empresa argentina Invap, a mesma que fez o da Austrália.” O CNEA também está construindo um reator semelhante ao RMB, e a cooperação contribui para diminuir os custos dos dois. Para o projeto básico de engenharia e infraestrutura dos prédios do reator brasileiro e dos laboratórios e de todos os sistemas associados foi con-

tratada a empresa brasileira Intertechne. Para o projeto básico de engenharia foram destinados R$ 50 milhões do Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), que é uma reserva de recursos para financiamento do setor de pesquisa, desenvolvimento e inovação, administrado pela Financiadora de Estudos e Projetos (Finep), ligada ao MCTI. Paralelamente ao projeto básico, há uma série de estudos e relatórios de impactos ambientais e pedidos de licença para a construção do RMB, nos quais foram investidos R$ 2,7 milhões do orçamento da CNEN. A produção do 99Mo no RMB inclui uma série de etapas inerentes ao ciclo do combustível nuclear. “O minério é retirado da mina e processado de forma a se obter um concentrado de urânio chamado yellowcake”, explica Perrotta. O processo a seguir, que tem tecnologia já dominada pelo país, é realizado em várias fases e resulta em pequenas placas,

Caminho do radiofármaco A partir do urânio chega-se ao gerador de tecnécio

5

1 Urânio já processado é irradiado com feixes de nêutrons por uma semana em um reator nuclear

gerador de tecnécio

Na radiofarmácia as cápsulas de molibdênio são depositadas nos geradores de tecnécio que são encaminhados para os hospitais e clínicas

Tireoide

2

Estômago

Processo químico que resulta na separação do molibdênio do urânio

Rins Ossos

4

urânio-235

Na forma de cápsulas eles são enviados à radiofarmácia

3

Solução de molibdênio-99 com alta pureza

80  z  JULHO DE 2014

Coração

Molibdênio-99

6 Médicos especialistas extraem do gerador solução de tecnécio usada como contraste em exames de tomografia Fonte cnen


foto  CUSTOM MEDICAL STOCK PHOTO / SCIENCE PHOTO LIBRARY ilustraçãO ALexandre affonso

No diagnóstico, o tecnécio-99m é injetado no paciente. Equipamentos de tomografia captam as imagens marcadas pelo radiofármaco

outro elemento usado na medicina nuclear e que também será produzido no RMB, é de 8,02 dias e a do tecnécio-99m é de apenas seis horas. Quer dizer, a cada seis horas a intensidade da radiação no corpo da pessoa é reduzida à metade, em dois ou três dias não restará praticamente qualquer intensidade radioativa.” O fluxo de nêutrons de grande intensidade gerado no RMB servirá para testar chamadas de alvo, que combustíveis e matecontêm urânio enririais usados nos reatoquecido disperso em O uso de feixes de nêutrons do reator res de geração de enerseu interior. multipropósito servirá para estudos gia elétrica, como nas Os alvos são irradiacentrais nucleares de dos no reator por uma de materiais usados na indústria Angra dos Reis (RJ) e semana para produzir de propulsão, como a os elementos radiativos que será usada no proprovenientes da fissão tótipo do submarino do urânio, dentre eles o 99Mo. Esses alvos depois são dissolvidos O médico Celso Dario Ramos, presiden- nuclear que a Marinha está desenvolvenno laboratório de processamento, gerando te da Sociedade Brasileira de Medicina do. “O RMB propiciará segurança técnica uma solução de alta pureza de 99Mo, que é Nuclear (SBMN), diz que radioisótopos, a esses projetos, garantindo a continuidaenviada para a radiofarmácia que produz como o tecnécio-99m, são fundamentais de no desenvolvimento do conhecimento radiofármacos. Lá, é produzido o disposi- para o diagnóstico de muitas doenças. nuclear do país”, diz Perrotta. “Por fim, ele Outros radioisótopos, como o iodo-131 e abrigará um laboratório de uso de feixes tivo denominado “gerador de tecnécio”. É esse gerador de tecnécio que é dis- o lutécio-177, que também serão produ- de nêutrons em pesquisas de materiais em tribuído aos hospitais e clínicas. “Por zidos no RMB, possibilitam o tratamento complemento ao Laboratório Nacional de meio do gerador de tecnécio, o médico de várias doenças, como o câncer de ti- Luz Síncrotron (LNLS), de Campinas, no especialista extrai soluções calibradas róide e tumores neuroendócrinos. “Com interior paulista. Se não avançarmos neste contendo o tecnécio-99m e que, associa- o tecnécio-99m é possível fazer imagens setor, acabaremos à margem do desenvoldas a moléculas orgânicas específicas, são que permitem enxergar o metabolismo vimento mundial e ficaremos à mercê do utilizadas para diagnóstico de medicina celular em tecidos vivos”, explica. “Com que existe no exterior.” os diversos radiofármacos é possível ver nuclear”, explica Perrotta. Por isso, Ramos, que também é dia distribuição de um determinado hor- retor do Serviço de Medicina Nuclear mônio pelo corpo ou o consumo de gli- da Universidade Estadual de Campinas Diferenças do uso Para isso, o médico injeta essa solução, que, cose em uma região, o que pode revelar a (Unicamp), considera “muitíssimo imde acordo com a fisiologia do organismo presença e a agressividade de um tumor, portante” para o Brasil a construção do humano, por meio de afinidades e rejeições por exemplo. Os radiofármacos possibi- RMB. “O impacto não se dará somente com os vários tipos de células, se dirige ao litam ainda enxergar o funcionamento na medicina nuclear, mas também na órgão ou região que se quer diagnosticar. de órgãos internos, como ossos, pulmões, física, química, engenharia e biologia e outras áreas de pesquisa”, diz. “O reaA maneira de fazer o diagnóstico em me- coração, cérebro, fígado e rins.” No caso do tecnécio-99m, ele tem uma tor não servirá apenas para produzir radicina nuclear é diferente da que emprega raios X, em que a radiação atravessa a pes- vantagem adicional: uma meia-vida cur- dioisótopos. Ele será um grande centro soa sem deixar vestígios e sensibiliza um ta. Meia-vida é o tempo que leva para um de pesquisa, com uma importância tão filme fotográfico. O tecnécio-99m é um elemento radiativo perder (emitir na for- grande quanto a do LNLS.” Para Perrotta, o RMB vai contribuir emissor de radiação gama. Ao ser injeta- ma de radiação) metade de seus átomos. do no paciente, passa a emitir radiação de “A do urânio-235, por exemplo, é de 700 para que a região onde será instalado dentro do corpo da pessoa, que é captada milhões de anos e a do césio-137, 30,2 se torne um polo de tecnologia nuclear exteriormente por detectores de radiação. anos”, informa Perrotta. “A do iodo-131, no Brasil. n pESQUISA FAPESP 221  z  81


humanidades   sociologia y

Macrometrópole movediça Estudo estima que 3,8 milhões de pessoas vivem precariamente em favelas, loteamentos clandestinos e loteamentos irregulares em 113 municípios paulistas Juliana Sayuri

82  z  JULHO DE 2014


léo ramos

C Bairro Piratininga, em Guarulhos: pesquisa levou em conta variáveis como habitação, infraestrutura e aspectos demográficos

ertas cidades podem ser “lidas” como um retrato e como um mapa. Como retrato, no processo de favelização visível nas últimas décadas, com barracos informais, construções irregulares e puxadinhos improvisados, onde vivem “invisíveis” milhares de habitantes galgados nas fronteiras imaginárias das cidades brasileiras. Como mapa, nos levantamentos geográficos, com análise de estatísticas rigorosas e cruzamentos de informações de outras pesquisas, detalhando a localização e as condições dos “assentamentos precários” nos territórios. Essa foi a proposta do Diagnóstico dos assentamentos precários nos municípios da macrometrópole paulista, coordenado pelo pesquisador Eduardo Marques, do Centro de Estudos da Metrópole (CEM), um dos Centros de Pesquisa, Inovação e Difusão (Cepid) apoiados pela FAPESP. Também participaram do estudo os geógrafos Daniel Waldvogel e Donizete Cazolato, o estatístico Edgard Fusaro e a cientista política Mariana Bittar. “Os assentamentos precários incluem favelas, loteamentos clandestinos e loteamentos irregulares, três soluções habitacionais precárias”, define Marques, professor da FaculdapESQUISA FAPESP 221  z  83


Retrato da precariedade Mapa indica as regiões onde há concentração de habitações irregulares

SP

MG

RJ

Região Metropolitana de Campinas

Aglomeração urbana de Jundiaí

Região Metropolitana do Vale do Paraíba e Litoral Norte

Região Metropolitana de São Paulo Região Metropolitana da Baixada Santista

macrometrópole paulista Setores censitários 2010 n Urbanos subnormais n Urbanos precários n Urbanos não precários n Urbanos não contemplados n Rurais e sem informação

Limite municipal Limite regional

de de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP). “Há grande heterogeneidade de situações, mas áreas precárias costumam abrigar população pobre, com pouco acesso a infraestrutura e serviços, especialmente no que diz respeito a serviços de esgotamento sanitário.” A fim de identificar os assentamentos precários, o estudo contou com variáveis como habitação, infraestrutura e aspectos demográficos, como escolaridade e renda do responsável pelo domicílio. Realizado a pedido da Empresa Paulista de Planejamento Metropolitano (Emplasa) e da Companhia de Desenvolvimento Habitacional e Urbano (CDHU), esse estudo atualiza metodologia elaborada em um trabalho anterior, desenvolvido para o Ministério das Cidades. Em 2005, com base nas informações do Censo de 2000, a população favelada da macrometrópole paulista girava em torno de 3,17 milhões. Em 2010, ano-base do novo estudo com dados do Censo de 2010, já eram 3,80 milhões de habitantes em condições 84  z  JULHO DE 2014

precárias nos 113 municípios da região, área de 31,5 mil quilômetros quadrados que abrange as regiões metropolitanas de São Paulo (RMSP), de Campinas (RMC), da Baixada Santista (RMBS) e do Vale do Paraíba e Litoral Norte (RMVP-LN), além da aglomeração urbana de Jundiaí (AUJ) (ver mapas). Houve, portanto, um crescimento considerável, de 13,5% para 14,3%. “Entretanto, esses números escondem uma grande variabilidade entre regiões”, pondera Marques. “Na Região Metropolitana de São Paulo, a proporção caiu de 15% para 14,5%. Enquanto isso, na Baixada Santista o número cresceu de 18,1% para 20,5%; na região de Campinas, saltou de 9,9% para 14,5% – isto é, uma mudança expressiva, sugerindo intensos processos de favelização. Houve crescimento absoluto em todas as regiões, mas na capital esse percentual foi inferior ao crescimento do conjunto da população. Em certo sentido, há uma dispersão do problema”, indica. Para Marques, diversos fatores contribuem para esse retrato. “O processo de favelização está em


curso há décadas, causado pela pobreza e pela falta de políticas habitacionais à altura da demanda. Em termos gerais, é produto da forma pela qual se deu (e pela qual se continua dando, embora em menor ritmo) o processo de urbanização no Brasil”, diz. Ao longo do tempo, uma possível solução envolveria a redução da pobreza e o aumento expressivo da oferta de habitação popular, mas, como as metrópoles foram se constituindo, a questão ficou mais complexa. “Muitas vezes, a disponibilidade de terras para a construção e o mercado fundiário podem representar obstáculos para a solução da precariedade. Esse é o caso da região metropolitana de São Paulo. A regulação sobre a terra urbana e a disponibilização de boas terras pelo planejamento passam a ser cruciais – e estatutos como as Zonas de Especial Interesse Social (Zeis), previstas no Plano “Áreas precárias Diretor atualmente discutido em São Paulo, trabalham nessa direcostumam abrigar ção”, analisa. Nessa cartografia as consequências são a população pobre, paulista, baixa qualidade urbana e de vicom pouco acesso da para um conjunto expressivo da população e, na mesma linha, a infraestrutura uma queda na situação ambiental e urbana nas cidades. e serviços”, diz Não há uma regra para a localização geográfica dos assenEduardo Marques tamentos precários. Na região metropolitana de São Paulo, muitos se concentram nas áreas periféricas. “Apenas algumas favelas de porte se situam na região mais central e mais rica. Isso é produto de um longo processo de expulsão dos núcleos mais centrais, com a população procurando se instalar nos espaços ainda existentes – cada vez mais periféricos. Os loteamentos irregulares, por sua vez, já foram implantados em áreas mais distantes, sendo, na verdade, responsáveis por parte predominante da expansão periférica a partir dos anos 1960. A combinação desses dois processos intensificou os padrões de segregação social em São Paulo e em outras metrópoles”, critica.

mapa Centro de estudos da metrópole

Fora do “normal”

O Instituto Brasileiro de Geografia e Estatística (IBGE) privilegia a expressão “aglomeramentos subnormais” para se referir a setores urbanos em que a classificação do censo encontra certa complexidade, como aterros, barracos, favelas, invasões, mocambos, palafitas e loteamentos clandestinos. São consideradas “subnormais” as áreas com 50 habitações ou mais, marcadas por uma série de precariedades habitacionais, isto é, construções fora das regras do planejamento

urbano. Os demais setores urbanos são classificados como “não especiais”. “Essa definição, entretanto, é feita antes do censo, pois trata da organização do trabalho de coleta de dados. Assim, a informação fica desatualizada. Vale ressaltar, porém, que a definição ‘subnormal’ não advém de um erro do IBGE, pois a informação não pretende expressar a precariedade, mas sim organizar o trabalho do instituto. Os dados coletados são padronizados e, por isso, faz sentido aproveitá-los para outros estudos, mas contornando suas limitações”, diz Eduardo Marques. Esse foi o alicerce do trabalho do CEM, que aproveitou informações do IBGE para identificar os assentamentos precários, abrigando tanto aglomerados “subnormais” quanto setores “não especiais” com características sociais e urbanas similares, a fim de acertar possíveis distorções. Definições à parte, aglomerados subnormais e assentamentos precários retratam as frágeis formas de habitação que se espalham por áreas vulneráveis nas grandes cidades, à espera de políticas públicas eficazes. “A habitação tem grande importância não apenas pela centralidade na qualidade de vida das pessoas que dependem das políticas governamentais, mas por estruturar as cidades. Nesse sentido, é do interesse de todos os grupos sociais a construção de políticas habitacionais massivas e diversificadas e de políticas redistributivas de regulação da terra – e não só dos diretamente beneficiados”, diz o pesquisador. O estudo do CEM também analisou instrumentos de gestão voltados à política habitacional. “O Brasil vem acumulando conhecimento para desenvolver políticas habitacionais para os problemas existentes desde o início dos anos 1990, em processos de aprendizado de políticas que perpassaram diversos governos”, comenta Marques. Na precisão da teoria: “Certamente o caminho é o desenvolvimento de políticas diversificadas, que envolvam a produção massiva de habitações novas para as faixas de mais baixa renda, a regularização de loteamentos, a urbanização de favelas. Os conhecimentos técnicos estão sendo acumulados ao longo das décadas, mas essa política é cara e demorada”, diz o pesquisador. Na imprecisão da prática: enquanto tais políticas públicas não forem implementadas, as cidades brasileiras continuam crescendo aos tropeços, a torto e a direito, enquanto as favelas, como diria Carlos Drummond de Andrade, “o tempo gasto em contá-las é tempo de outras surgirem” (Crônica das favelas nacionais, Jornal do Brasil, 6 de outubro de 1979). n

Projeto Centro de Estudos da Metrópole – CEM (nº 2013/07616-7); Modalidade Centros de Pesquisa, Inovação e Difusão (Cepid); Pesquisadora responsável Marta Teresa da Silva Arretche (CEM); Investimento R$ 7.109.808,20 para todo o Cepid (FAPESP).

pESQUISA FAPESP 221  z  85


memória

Cientista e documentarista Em 1910, Carlos Chagas filmou pacientes em Lassance, cidade onde descobriu a doença que leva seu nome Neldson Marcolin

86 | julho DE 2014

A

sessão solene realizada na Academia Nacional de Medicina (ANM) de 31 de outubro de 1910, no Rio de Janeiro, esteve repleta de novidades. E todas entraram para a história da instituição de 185 anos. A primeira delas foi a admissão de Carlos Chagas, médico e pesquisador do Instituto Oswaldo Cruz (IOC), como membro da ANM, mesmo sem haver vagas disponíveis, fato sem precedentes. O convite partiu do presidente da agremiação, Miguel Pereira, que havia visitado com outros acadêmicos, meses antes, a região de Minas Gerais onde Chagas descobriu a doença que ficaria conhecida pelo seu nome. O segundo fato novo é que o pesquisador fez na academia sua primeira conferência sobre a doença para seus pares. No mesmo dia ocorreu a inauguração da iluminação elétrica no local. Por fim, o mais novo acadêmico exibiu um filme de nove minutos com imagens de doentes da cidade de Lassance (MG) para ilustrar sua preocupação com a degeneração da saúde humana provocada pelo parasita Tripanossoma cruzi. O hoje intitulado Chagas em Lassance é um dos primeiros documentários científicos realizados no Brasil.

Chagas ampara criança doente no filme feito por ele em 1910 e exibido na ANM e em Dresden


1 O pesquisador caminhando em direção ao hospital de Lassance 2 Posando para foto em seu laboratório, em 1929

fotos  Acervo da Casa de Oswaldo Cruz, Departamento de Arquivo e Documentação

1

Os pesquisadores da Fundação Oswaldo Cruz (Fiocruz) Stella Oswaldo Cruz Penido e Eduardo Vilela Thielen, também diretores de cinema, começaram a procurar Chagas em Lassance no começo dos anos 1990. “Foi durante a realização de outro documentário, Chagas do Brasil, que tivemos conhecimento da existência dessas filmagens de Chagas”, conta Stella. “Iniciamos uma pesquisa nos arquivos disponíveis e nessa procura Carlos Chagas Filho nos trouxe uma cópia em 16 milímetros do filme feito pelo pai em 1910, que foi restaurada e depois digitalizada.” Eles então produziram e dirigiram Cinematógrafo brasileiro em Dresden, de 21 minutos, em 2011, 100 anos depois da exibição de Chagas em Lassance na Exposição Internacional de Higiene em Dresden, na Alemanha. O documentário traz o depoimento de pesquisadores sobre as campanhas contra a febre amarela conduzidas por Oswaldo Cruz no Rio, mostra registros de um filme de autoria

desconhecida com essas atividades na década de 1900 e conta da repercussão de Chagas em Lassance, exibido várias vezes na exposição alemã para um público europeu variado. “O filme deve ter sido feito com uma câmera de madeira, francesa ou alemã, a manivela, rodando 16 quadros por segundo com uma objetiva focal fixa e filme monocromático”, segundo análise de Hernani Heffner, conservador-chefe da Cinemateca do Museu de Arte Moderna do Rio, que fala no Cinematógrafo brasileiro em Dresden. “A apresentação dos doentes de forma crua e direta, que não esconde nada, é absolutamente franca com a plateia.” Carlos Chagas aparece rapidamente na película, de terno branco e chapéu, amparando uma criança (foto na outra página). As imagens mostram crianças e jovens com distúrbios neurológicos e dificuldades motoras. Chagas chamava esses problemas de “forma nervosa da tripanossomíase

americana”. “Na época, as duas doenças ocorriam no mesmo local: o mal de Chagas e o bócio, este decorrente da falta de iodo nas regiões afastadas do mar, que comprometia o sistema nervoso e a mente em formação das crianças”, explica José Rodrigues Coura, chefe do Laboratório de Doenças Parasitárias do IOC. “As duas doenças, mescladas, levaram o grande cientista a confundi-las.” Simone Kropf, historiadora das ciências da Casa de Oswaldo Cruz/ Fiocruz, conta que se sentiu impactada com as cenas do

2

filme em que as crianças tentam ficar em pé e caem. “A ideia de que essa situação era produzida por doenças evitáveis introduziu uma perspectiva diferente no debate sobre a saúde da população: o Brasil pode ser curado, não estamos condenados ao atraso e é possível, por meio da ciência, superar essa situação”, disse Simone no filme de Stella e Thielen. O filme de Chagas não foi uma extravagância. Era importante trazer as imagens dos doentes do interior do Brasil para serem vistas na capital federal. Oswaldo Cruz sabia disso e, aficionado por fotografia, mantinha um fotógrafo contratado no IOC, J. Pinto. O rico material iconográfico produzido desde os primeiros anos do instituto resultou no livro Vida, engenho e arte – O acervo histórico da Fundação Oswaldo Cruz (COC/ Fiocruz, 2014), organizado por Fábio Iglesias, Paulo Roberto Elian dos Santos e Ruth B. Martins. A obra tem imagens da construção do castelo de Manguinhos, cenários, personagens da história da fundação, coleções e um fotograma de Chagas em Lassance, raríssimo exemplo de um filme brasileiro científico antigo. PESQUISA FAPESP 221 | 87


Arte

1

A relevância de Lygia Clark Exposição no MoMA situa a artista brasileira no centro do processo de reflexão sobre os desdobramentos, limites e superações da arte moderna e contemporânea Maria Hirszman

88 | julho DE 2014

D

epois de cinco anos de pesquisa, o Museu de Arte Moderna de Nova York (MoMA) inaugurou no último mês de maio uma antológica exposição dedicada à obra de Lygia Clark. Com mais de 300 obras, além de um catálogo alentado e uma intensa programação paralela, a mostra Lygia Clark: o abandono da arte, 1948-1988, vem sendo apresentada como uma confirmação da enorme relevância de seu trabalho. É verdade que desde os anos 1990 a artista tem sido alvo de um crescente interesse, com mostras e retrospectivas importantes organizadas na Europa e no Brasil, acompanhadas de uma constante valorização de mercado, e que essa é sua primeira exposição em território norte-americano. Mas a mostra é bem mais do que um coroamento natural por parte de uma das mais prestigiosas instituições museológicas do mundo. Num claro esforço em aprofundar a reflexão sobre esse legado, os curadores Luis Pérez-Oramas – responsável pelo núcleo de América Latina no MoMA e autor do projeto curatorial da 30a Bienal de São Paulo (2012) – e Connie Butler – atual-

Vista da instalação A casa é o corpo (1968), parte da exposição Lygia Clark: The Abandonment of Art, 1948-1988 , no MoMA, NY (10 de maio a 24 de agosto de 2014)


fotos 1 thomas griesel © 2014 the museum of modern art 2 sergio gerardo zalis, 1986 / cortesia associação cultural “o mundo de lygia clark”, rio de janeiro

mente curadora-chefe do Hammer Museum (Los Angeles) – esmiuçaram a obra de Lygia, deixando evidente por que a artista é um caso raro na cena internacional da segunda metade do século XX. Afinal, ela estabelece a partir do interior da criação artística um profundo questionamento e ruptura dos limites da representação estética; desestabiliza os cânones, questiona a noção de arte e introduz aí uma dimensão humana, o que a coloca no centro do processo de reflexão sobre os desdobramentos, limites e superações da arte moderna e contemporânea. A mostra segue uma ordem cronológica e se articula em torno de três blocos principais: as pinturas iniciais e o abstracionismo; o envolvimento com o neoconcretismo; e as experimentações sensoriais e ligadas ao campo da psicoterapia. O primeiro grupo reúne os trabalhos do fim dos anos 1940, quando Lygia estuda sob a orientação de Burle Marx, e início dos 1950 – período em que mora em Paris, frequenta o ateliê de Fernand Léger e desenvolve um profundo vínculo com a obra de Piet Mondrian, influência central em sua trajetória. Trata-se ainda, nas palavras de Connie Butler, do “clássico treino do legado da influência europeia”. A partir daí são apresentados vários momentos-chave em seu percurso, como a passagem do estudo do movimento centrífugo das escadas para a construção geométrica e abstrata da forma; a intensa e rápida participação em movimentos como o Grupo Frente e o Movimento Neoconcreto; a descoberta da linha orgânica, em meados dos anos 1950, quando expande radicalmente a pintura para além do limite da moldura; o intenso diálogo com a arquitetura e o estudo do espaço (“o que eu quero é compor um espaço e não compor dentro dele”, dizia); o questionamento cada vez mais profundo do estatuto do objeto de arte, do artista e do espectador; até chegar ao que ela mesma define como “o estado de arte, sem arte”. Apesar dessa sucessão temporal, não se trata de um modo meramente evolutivo de mostrar um percurso das pinturas ainda figurativas do final dos anos 1940 até os experimentos terapêuticos dos anos 1970 e 1980. Adotando como estratégia eliminar as divisões entre os espaços expositivos e promover um diálogo entre obras de diferentes momentos de sua produção, os curadores enfatizaram os nexos internos – formais e conceituais – entre os diferentes grupos de obras. “Nossa proposta foi olhar para Lygia Clark simultaneamente de maneira progressiva e regressiva”, explica Oramas. Um dos principais pontos de partida da dupla foi deixar claro que não compartilham da ideia – segundo eles canonizada pela interpretação corrente e baseada na leitura crítica de Ferreira Gullar – de que haveria dois momentos estanques na produção de Lygia, um artístico e outro simplesmente terapêutico. Seria portanto um

2

Lygia Clark vestindo Máscara abismo com tapa-olhos, 1968. Tecido, elásticos, bolsa de náilon e pedra

equívoco apresentar uma fratura, considerar sua trajetória como proveniente de duas pessoas estéticas distintas. “Não importa quão radicalmente distinto seu trabalho possa ser do fenômeno que usualmente chamamos (ou chamávamos) de arte, ele permanece parte da arte”, escreve o curador. Vista em termos museológicos, a crescente radicalidade da artista, sobretudo no caso dos objetos transicionais e proposições relacionais desenvolvidos em especial a partir de 1976, quando inicia seu trabalho terapêutico, é um desafio. Afinal, como apresentar dentro de um museu experiências que claramente rompem com a noção de obra de arte como objeto final, único, a ser observado passivamente? Objetos de uma simplicidade impressionante, feitos de sacos plásticos, pedras ou elásticos e que foram pensados não como obra final, mas como ferramentas de transição que buscam estimular uma maior sensibilidade e libertação criativa, que servem para promover um mergulho na subjetividade, libertar o que Lygia chamava de “fantasmagorias do corpo”? PESQUISA FAPESP 221 | 89


2 Relógio de sol, 1960. Alumínio com pátina dourada, dimensões variáveis (aproximadamente 52,8 x 58,4 x 45,8 cm)

1

Um aspecto interessante dessa retrospectiva do MoMA é que ela parece ter sabiamente aproveitado as experiências anteriores de mostrar a produção de Lygia. Nas duas últimas décadas sua obra tem sido objeto de retrospectivas e participações especiais em eventos internacionais e o tema sobre a dificuldade de expor seu trabalho volta e meia vem à baila. Muitas críticas foram feitas à tendência em fetichizar as ações experimentais, condenando os objetos de ativação à imobilidade das vitrines, ou em transformá-las em uma performance vazia, um jogo lúdico que esteriliza o caráter transformador pretendido pela artista. Desta vez a dificuldade é assumida e enfrentada a partir de diferentes estratégias, como o uso generoso de réplicas e facilitadores especialmente treinados no espaço expositivo, a realização de uma série de workshops, bem como a criação de um programa dentro do projeto MoMA Studio para que os visitantes possam explorar alguns objetos transicionais com maior tranquilidade e a concentração necessária. Recepção

Se obras como Bichos (ela fez mais de 70 deles) e as pequeninas maquetes feitas com caixas de fósforo (estruturas de caixas de fósforo) parecem ter encantado a crítica de maneira unânime, e as pinturas iniciais mereceram uma admiração distanciada, a reação aos objetos relacionais que Lygia cria a partir de meados da década de 1970 como forma de estabelecer um vínculo afetivo, libertário e terapêutico, com seus pacientes, parece trazer à tona reações mistas. Segundo o 90 | julho DE 2014

2

curador, enquanto tais experiências parecem fascinar uma parcela do público interessada em arte-terapia e estética relacional e reafirmam a coerência e radicalidade de Lygia para um público já acostumado com as dinâmicas internas à arte latino-americana do período, um segmento do público ainda estreitamente vinculado à ideia de arte como espetáculo se espanta. Foi o caso, por exemplo, da crítica Ariella Budick, do Financial Times (FT), que resumiu de maneira rude a impressão que a mostra lhe causou: “A artista brasileira progrediu de uma abstração afetadamente modernista à improvisação confusamente hippie”. A censura foi respondida em tom sarcástico e direto por Simon Watson, do Huffington Post, para quem a colega do FT demonstrou “a pior sorte de provincianismo” e não compreendeu o enorme tour de force da exposição. Ou de forma indireta pela pesquisadora espanhola Estrella de Diego, que afirma em

fotos 1 jones bergamin / cortesia associação cultural o mundo de lygia clark, rio de janeiro  2 moma–nova york. doação de patricia phelps de cisneros em homenagem a rafael romero / cortesia associação cultural o mundo de lygia clark, rio de janeiro

1 Trepante, versão 1, 1965. Alumínio, dimensões variáveis (aproximadamente 263 x 146 cm)


4

3 alécio de andrade / cortesia associação cultural o mundo de lygia clark, rio de janeiro  4 thomas griesel © 2014 the museum of modern art  5 cortesia associação cultural o mundo de lygia clark, rio de janeiro

3

texto publicado no El País que a mostra alcança uma “coerência comovente”. Tal embate serve como uma luva para ilustrar a ideia muitas vezes expressa por Oramas da importância de uma revisão da historiografia hegemônica, em busca de uma maior incorporação das experiências latino-americanas. Segundo ele, os brasileiros entenderam melhor a tradição construtiva europeia e apresentam “uma nova chave para o entendimento entre o pensamento geométrico e a arte conceitual, uma vez que a arte americana saiu do expressionismo abstrato diretamente para o minimalismo”. Essa maior abertura já se faz sentir na mostra permanente da coleção do museu e também em projetos paralelos como o de tradução para o inglês da obra do crítico Mário Pedrosa, autor de uma das mais precisas definições da obra de Lygia Clark como um “exercício experimental da liberdade”. Caminhando

Como explica Connie Butler em seu texto, tal construção parece sintetizar o caráter profundamente revolucionário de obras como Caminhando, momento crucial na trajetória de Lygia e que adquire grande centralidade nessa retrospectiva. Ao dar ao espectador uma simples fita de Moebius de papel e uma tesoura, propondo que ele recorte essa fita transversalmente, transformando-a em linhas cada vez mais finas, ela promove uma mudança fundamental na sua relação com o objeto de arte, deslocando-o da função de espectador para a de agente. O ato de

5

cortar exige escolhas e transforma um gesto negativo (corte) em produtor de matéria corpórea (os restos de papel que se acumulam desordenadamente, quase como uma escultura aleatória). Novamente a relação entre a linha e o espaço se impõe, da mesma forma que em outros núcleos importantes de trabalhos. A pessoa (não mais o “autor”) realiza uma operação de corte, “mas o resultado é aditivo, uma prodigiosa acumulação e multiplicação da diversidade material contida na unidade do plano”, acrescenta Oramas. Caminhando se constitui assim como uma metáfora desse traçado tênue e persistente de questionamentos que costura os quase 40 anos de trabalho de Lygia. Pode-se pensar que a ênfase nos grandes momentos e fases poderia dar uma falsa impressão de genialidade, de lampejos criativos que iluminam sem grande esforço. Talvez por isso um dos maiores méritos da exposição do MoMA seja exatamente o de demonstrar, por meio da grande quantidade de trabalhos e de um conjunto impressionante de estudos, maquetes e esquemas compositivos, que cada passo, ataque ou expansão dos limites decorre não apenas de um espírito radical, mas também do esforço de uma pesquisa incansável em torno daqueles que considerava seus temas: o espaço e o tempo. n

3 Lygia Clark em seu ateliê trabalhando em Arquitetura biológica II. Cité Internationale des Arts, Paris, 1969 4 Vista da exposição Lygia Clark: The Abandonment of Art, 1948-1988 5 Ping-pong, 1966, em uso. Bolas de pingue-pongue e saco plástico

PESQUISA FAPESP 221 | 91


conto

Desaprendendo a ser humano Daniela Lima

Para Vladimir Safatle

V

ocê pensa sobre o seu trabalho, sobre os artigos que não escreveu, sobre os artigos que escreveu, sobre o livro que não continuou lendo, sobre as duas horas de intervalo entre as duas reuniões. Sobre como os seus dias são iguais. Sobre como todos os dias talvez sejam apenas um. Um dia que não acaba. Você pensa sobre como tudo isso parece natural. Sobre como a rotina produziu um calo que não te permite mais reconhecer o intolerável. Pensa cada vez mais rápido. Aquilo que vinha em frases inteiras – “o livro que não continuei lendo por ter encontrado uma pequena mancha de café sobre a frase ‘what Schlegel calls a philosophy for man’” – agora se apresenta em palavras soltas: lazer, modernidade, automação, banalizing, nature, destination, humanity, tudo cada vez mais rápido. Palavras condensadas. Sobrepostas. Se embaralhando cada vez mais rápido, se embaralhando, até você estar perto do chão, em queda. Um corpo que sempre pareceu estar em queda, agora finalmente encontrava o chão. Era um alívio. Finalmente, você tinha chegado a algum lugar: o chão. E as palavras eram: infinite, dialogue, hard-working. No chão. O espaço que o seu corpo ocupou no chão dividiu a multidão entre os que passavam pela esquerda do seu corpo e os que passavam pela direita do seu corpo. Ninguém parou. A multidão era como um fluido que precisava continuar escoando, independentemente do obstáculo. O obstáculo apenas representava uma bifurcação no caminho. Ninguém vai parar. A multidão precisa escoar. Escoar. Escoar. No momento, em que te restam algumas palavras em inglês e a visão dos sapatos gastos dos outros, você percebe que não sabe mais viver. Alguma coisa fraturou em você.

92 | julho DE 2014

Alguma coisa fraturou em você antes mesmo da queda. A sensação de pertencer a alguma coisa e de estar no mundo está falhando. As portas do trem se fecham, as pessoas desembarcam e falam cada vez mais alto... Sobre trabalho, sobre dinheiro, sobre lazer, sobre outras pessoas. Os sons parecem cada vez mais distantes, ainda que cada vez mais próximos, ainda que perguntando: “Você está bem?”. Nenhum daqueles sons se referia mais a você. Sobretudo, quando se referiam a você. Você está no chão. Você não sente nenhuma dor. Você não teria nenhum problema para se levantar. Mas você não se sente mais capaz de seguir, de agir, de fazer tudo como antes. Você só quer esperar, até não ter mais o que esperar. Você não quer mais avançar como antes. Você não quer mais avançar. Você chegou. Os artigos que você não escreveu, os artigos que você escreveu, o livro que você não continuou lendo, as duas horas de intervalo, a queda. Esta sensação seria consequência de uma combinação inoportuna de acontecimentos? Se você tivesse terminado de ler o livro alguma coisa mudaria? Por que alguma coisa se quebra assim? Por que alguma coisa se altera? Por que alguma coisa se desfaz? É triste e ridículo como usar um chapéu de burro: você não sabe. Você não sabe e é absolutamente incapaz de formular respostas. Você rompeu com o seu conhecimento anterior. Você é capaz apenas de formular perguntas. Perguntas que você não será capaz de responder. Se te perguntassem quem é você, antes da queda, você responderia automaticamente: sou professor. Mas agora você não faz mais nada, portanto você não é mais nada. Um grupo de homens te levanta do chão. Você não quer dar o próximo passo. Você chegou. Tenta balbuciar algumas palavras:


pedro franz

fuzilamento, insatisfação, poetry, historical. Você está caminhando sem caminhar. Você está sendo conduzido. Você está sendo conduzido de novo. Eles dizem e você entende: e os que saquearam o hotel? E os que mataram o dono daquela fábrica? E os que envenenaram cavalos? E os que entraram em greve? Você ouve. Você é uma bifurcação. Você não é reacionário. Você não é subversivo. Ou é? Você gagueja. Você não é mais formado. Você não é mais formador. Você não é mais ético. Você é a deformação irredutível de você mesmo. Você ouve. Você vê. Você vê e ouve as coisas nuas. É obsceno. É obsceno ver as coisas nuas. É obsceno ver aquilo que você foi treinado para não ver durante a sua vida inteira. Você se lembra da primeira comunhão, do primeiro cigarro, da primeira mulher, da primeira... Você se lembra. Tudo aquilo, que agora parecia outro, sempre foi você. Sempre esteve lá. Mas agora a camada que fazia de você um homem comum foi descolada. Você segue. Você segue enquanto tudo se amplia, se dilata, escoa. Você segue enquanto a rigidez da matemática, da gramática e da lógica desaparece. Enquanto as leis da física desaparecem. Todo aquele universo invisível que parecia claro, quando você desenhava um vetor numa folha de papel, desaparece. Homem, fragments, morte, ambiguity. Tudo aquilo passa a incomodar. Tudo aquilo que não incomodava passa a incomodar. As fábricas, os bancos, as empresas de cartão de crédito: tudo incomoda. Tudo te atinge. Na cabeça. Tudo passa a existir demais. A existir absolutamente. Você, homem comum, treinado para não existir e para não notar a existência das coisas, agora existe. Existe demais. O seu novo modo de estar no mundo pode ser definido assim: demais. Você

também é obsceno, você também está escoando. Você também gagueja. Gagueja segurando um pacote. Um pacote que foi dado a você. Um pacote que vai explodir. Você caminha pelas ruas e tudo continua existindo demais, como se finalmente os prédios estivessem fixos no chão e as pessoas caminhassem com os pés nas calçadas. Tudo parece ligado a alguma coisa. Tudo parece ligado a você. Tudo é uma massa só. Uma massa visível. Escoando. Existindo. O sangue, as pessoas, as nuvens, tudo continuava a escoar. Você é eles, agora que você não é mais como eles. No talent for science, but for philosophy. No talent for philosophy, but for poetry. No talent. Você seguia. Você seguia porque o seu sangue escoava. Você seguia sabendo que toda a massa interligada a você estava escoando. Você seguia sabendo que estava sendo aniquilado a cada passo. Você seguia sabendo que poderia correr em direção à aniquilação. Você corria por não precisar mais prolongar a sua existência. Modernidade, automação, banalizing, nature, destination, humanity. Agora que você fervilhava de existência, precisava correr em direção à aniquilação. Agora que você tinha visto as coisas nuas, precisava explodir. Seu sangue escoava. Seu sangue precisava parar de escoar. Tudo precisa parar. Explodir. Tudo precisa ver, como se fosse possível, a partir da sua morte, fazer surgir um olho, que seria o olho dessa massa interligada que escoava. Você pensa em tudo escoando. É repugnante. É repugnante demais. É intolerável. Você explodiria o pacote. Neste dia, como em todos os outros, seria o seu fim. Daniela Lima é escritora e jornalista, autora de Anatomia (Multifoco, 2012) e Sem importância coletiva (e-Galáxia, 2014).

PESQUISA FAPESP 221 | 93


resenhas

Primorosa reconstrução

S

Cinquenta anos esta noite José Serra Record 266 páginas, R$ 35,00

94 | julho DE 2014

e o Serra político de um Brasil em processo de redemocratização é velho conhecido dos brasileiros, o José Serra que se revela neste recém-lançado Cinquenta anos esta noite é um surpreendente e poderoso escritor-memorialista, além de notável personagem da trama dramática, às vezes macabra, que foi a ditadura brasileira dos anos 1964 a 1985. Trama, notemos para começar, que atravessa os limites territoriais do país, entra nos domínios dos vizinhos da América do Sul, tem lances decisivos jogados nas Américas Central e do Norte e peripécias que se espraiam longamente pela Europa e outras partes do mundo. Essa espacialidade tão ampla em que se desdobram os inumeráveis dramas originados pelo golpe militar de 1º de abril de 1964 – data, aliás, enfaticamente marcada no livro – é apenas uma das características da ditadura para a qual Serra convoca o nosso olhar. Na verdade, com um notável domínio narrativo, ele conduz a atenção do leitor para uma infinidade de dimensões e aspectos do objeto político e histórico que examina e reconstrói a partir principalmente de sua inserção pessoal em acontecimentos que o compõem. Há lugar, assim, por exemplo, para uma avaliação das forças reacionárias que se mobilizaram para desferir o golpe, da sua base social de sustentação e para uma radiografia das fragilidades intrínsecas e do espantoso amadorismo do esquema militar do governo de João Goulart no livro de Serra. Há espaço para a crítica incisiva aos diferentes grupos da esquerda em ação, com lugar especial para o Partido Comunista Brasileiro (PCB), o chamado Partidão, e às radicalizações inconsequentes, tanto quanto para a autocrítica – Serra ressitua a Ação Popular (AP), partido que ajudou a fundar, no centro do debate político-ideológico do período. Há espaço para a denúncia contundente da impropriedade do pêndulo revolução/ reforma que sempre orientou as opções históricas da esquerda dentro e além do país. Há até mesmo algumas linhas nas páginas de Cinquenta anos esta noite para interrogar até que ponto uma conciliação que num momento-chave não chegou a termo entre os dois mais poderosos partidos políticos da época pré-ditadura, o PSD e a UDN (Partido Social Democrata e União Democrática Nacional), o primeiro mais ao centro, o outro à direita, poderia ter mudado o rumo de nossa história recente. (p.

82) Entretanto, tomando de empréstimo a E. J. Mishan uma bela fábula (p. 89), Serra mais adiante deixa claro que em sua visão não há um evento decisivo, mas a coincidência de múltiplos eventos na determinação dessa história: o golpe e a longa escuridão que a ele se segue. Mas é preciso destacar que se trata de um livro de memórias, e, nesta condição, jamais rejeita, ao contrário, inclui fortemente sem nenhuma concessão a tentações piegas todas as nuances afetivas que integram e recobrem suas lembranças e rememorações. O fio condutor da narrativa memorialística é a experiência vivida por Serra, do começo de 1964, ainda que haja necessárias incursões a tempos anteriores para dar força à urdidura da história que vai tecendo, até maio de 1977 – quando finalmente retorna ao Brasil, depois do longo exílio em duas etapas e em diferentes países, com o entremeio do aterrador pesadelo vivido num segundo golpe, o do Chile, em setembro de 1973. Nove capítulos enfeixam todo esse percurso e as profundas transformações na vida do narrador/personagem com títulos inspirados: Cinquenta anos esta noite; Na UNE do Flamengo; Sem pátria vagando; O Brasil, desde longe; Clandestino no Brasil; A família chilena e a felicidade da formação; Socialismo sem empanadas e vinho; Tempos brutos, tempos sórdidos; Exilado ao quadrado e O regresso. Ancoradas nesses marcos, as páginas de Cinquenta anos esta noite fluem literariamente e de forma admirável das descrições mais gerais e das análises objetivas para as experiências particulares mais sensíveis. Entrelaçam épocas e transitam à vontade por entre os anos, indo e voltando com elegância em favor da limpidez da história que contam. Apresentam e entrecruzam centenas de personagens, reconhecem em vários deles dimensões heroicas, mas, com frequência maior, oferecem exemplos de profunda solidariedade, amizade e coragem. Simetricamente, há também o outro lado das coisas: histórias de covardia e comportamentos torpes. Para quem não viveu 1964, a narrativa de Serra recria com mestria a ambiência dos meses pré-golpe. Mostra uma grande importância política, hoje mal suspeitada, de instituições como a UNE, a União Nacional dos Estudantes, tão próxima do Executivo federal, financiada pelo governo

eduardo cesar

Mariluce Moura


e com recursos para sua sobrevivência, quando necessário, antecipados sem problema pelo Banco Nacional. Veja-se: “– Presidente, nós defendemos que o pedido do estado de sítio seja retirado (...) – Olha, jovem, não precisas te preocupar, porque antes de vir aqui já tomei providências para retirar o projeto do estado de sítio. Não deixem esta notícia circular, pois vou anunciar depois de amanhã (...) O presidente era João Goulart. O jovem, o presidente da União Nacional dos Estudantes (UNE), eu. Num domingo de outubro de 1963, num apartamento em Ipanema, estávamos uns oito dirigentes da Frente de Mobilização Popular, a FMP. Ao abrir a reunião sigilosa, o deputado Leonel Brizola sugeriu que eu expusesse os motivos de nossa rejeição ao estado de sítio que Jango solicitara ao Congresso”. (p. 15) Ele traz também à cena de forma intensa o clima tenso, sombrio, atravessado por presságios e temores do dia do golpe e o desalento dos dias seguintes. E examina as esperanças e as sucessivas derrotas de líderes civis do golpe e de outros políticos que a ele aderiram, acreditando que o calendário da eleição presidencial de 1965 seria mantido. “Como vocês deixaram isso acontecer?”

A embaixada da Bolívia foi o refúgio de Serra após o golpe e antes de conseguir o salvo-conduto para partir para o exílio. Ele relembra a partida: “Aquela quinta-feira, 2 de julho, foi estranha e melancólica (...) Revi meus pais, avós e tios num restaurante acanhado, feio e mal-iluminado, de comida insossa. Eram pessoas simples, marcadas pela imigração, que queriam se adaptar (...) Não compreendiam por que eu deveria deixar o Brasil às pressas, entre fugido e expulso”. (p. 101-2) La Paz foi a primeira parada. Depois de 80 dias e muitos esforços, conseguiu seguir para Paris. E uma das histórias curiosas que conta dos primeiros dias parisienses é a da cobrança estapafúrdia dos companheiros de partido. “Havia um grupo da AP em Paris – estudantes que estavam lá na época do golpe e me acolheram com afeto (...) Com o passar do tempo, as posições ficaram cada vez mais extremadas. Cresciam a indignação e a impaciência dos que estavam longe do Brasil durante o golpe. A cobrança tornou-se pessoal, como se pudéssemos

ter barrado a ditadura. Eu ouvia: ‘Como vocês deixaram isso acontecer?’”(p. 120-1) O exílio de Serra tem um breve intervalo em 1965, mas ele é obrigado a sair outra vez. O Chile de Frei, mais adiante de Salvador Allende, é o destino e seu relato dá conta da formação de sua família, da rede de novos contatos que vai estabelecendo, de sua formação como economista e dos estudos no campo das ciências sociais e da ciência política, que, nas memórias, lhe permitem discorrer sobre as ideias que vai amadurecendo, as teses que vai rejeitando, a visão de mundo que vai sofisticando. Ao relatar um trabalho desenvolvido com Maria da Conceição Tavares, por exemplo, Além da estagnação, ele observa: “Era difícil combater o determinismo esquerdista, envolvido sempre numa análise catastrofista das perspectivas da América Latina. Ele levava ao limite as contradições no processo de desenvolvimento, transformando-as em leis de bronze do capitalismo da periferia do sistema. A antiga polêmica entre Eduard Bernstein e Rosa Luxemburgo – reforma ou revolução – retornava sub-repticiamente”. (p. 196-7) Serra já se referira algumas vezes antes a esse dilema, a exemplo de quando relata (p. 122) um debate entre Vargas Llosa, Josué de Castro (Geografia da fome) e o jornalista francês Claude Julien, do Le Monde, em 1965. “A tese dominante na mesa era de que a América Latina vivia uma situação pré-revolucionária, e que o caminho cubano da luta armada era a opção mais plausível – inclusive no Brasil, dizia Julien em seu estilo moderado e didático. Retomava-se o dilema que a esquerda criara no Brasil: reforma ou revolução.” (p. 122) Uma das páginas mais dramáticas entre tantas em Cinquenta anos esta noite conta o momento em que Serra é solto, pode deixar o estádio nacional do Chile, pede uma ficha de telefone ao soldado que o acompanha e liga para um amigo dizendo que temia naquele instante ser vítima de uma armadilha. “A caminhada da porta do estádio até a primeira rua foi a mais tensa da minha vida. Enquanto andava, morbidamente me perguntava se a bala do fuzil, além de derrubar-me, doeria.” (p. 218-9) Depois é a breve estada na Itália, os anos de estudos e trabalho nos Estados Unidos, nas universidades de Cornell e Princeton e o retorno ao Brasil. A última frase do livro, não sem duas estocadas no PT: “Continuo na luta. Não sei viver de outro jeito”. PESQUISA FAPESP 221 | 95


resenhas

A efeméride continua a render frutos

C

Travessias – D. João VI e o mundo lusófono Paulo Motta Oliveira (org.) Ateliê Editorial 336 páginas, R$ 53,00

96 | julho DE 2014

omemorados em 2008 com um grande número de eventos, publicações e veiculações midiáticas, os 200 anos da chegada da família real portuguesa ao Brasil foram o pretexto para a reunião de especialistas brasileiros e portugueses de diversas universidades em um colóquio cujas comunicações se encontram agora reunidas em Travessias – D. João VI e o mundo lusófono, organizado por Paulo Motta Oliveira, professor do Departamento de Letras Clássicas e Vernáculas da Universidade de São Paulo. Divididas em cinco partes (sendo a última delas em homenagem a Maria Aparecida Santilli, com textos de Rosângela Sarteschi e Benjamin Abdala Júnior), as 23 contribuições que compõem este volume são firmadas por acadêmicos de alto nível, a maioria da área de estudos literários, que na interface entre literatura e história buscam um diálogo com temas e problemas que envolvem Brasil e Portugal no século XIX e, de alguma forma, dizem respeito à referida efeméride. São eles: Jorge Fernandes da Silveira, Rosa Maria Sequeira, Patrícia da Silva Cardoso, Teresa Martins Marques, Renata Soares Junqueira, Jorge Valentim, José Cândido Martins, Ernesto Rodrigues, Amílcar Torrão Filho, Anamaria Filizola, Ida Ferreira Alves, Luís Bueno, Hélder Garmes, António de Andrade Moniz, Eduardo Vieira Martins, Mirhiane Mendes de Abreu, Simone Caputo Gomes, José Maurício Alvarez, Maria Lúcia Dias e Sérgio Nazar David, além dos supramencionados Oliveira, Sarteschi e Abdala. Para além de suas próprias qualidades, tais autores apresentam focos específicos, uns mais, outros menos originais, embora todos bastante relevantes: as imagens e representações construídas na historiografia e no romance em torno de dom João, sua corte e os acontecimentos de sua época, muitas delas ainda bastante atuais; a imprensa periódica, a literatura de viagem e científica, as cidades oitocentistas e os tratamentos que receberam de e/ou dispensaram a sujeitos históricos coevos; finalmente, diálogos literários entre Portugal, Brasil, África e Índia, de amplitudes geográficas e temporais a atestarem sua importância. Não há dúvida do quanto a história de Brasil e Portugal daquele conturbado e fundacional contexto de guerras contra a França e de mo-

dificações profundas na composição do império luso ainda é merecedora de investimentos qualificados como estes, sobretudo quando os mesmos resultam de enfoques interdisciplinares, e que desgraçadamente são pouco usuais na academia brasileira e estrangeira. No entanto, em outros aspectos, este é um livro menos pujante. Em primeiro lugar, porque o seu conjunto é excessivamente fragmentado, sendo sua unidade temática, em muitos cantos, apenas sugerida. Assim, há textos que não se relacionam com o dom João VI ao qual o título se esforça por conferir o caráter de elemento aglutinador, ou que o mencionam de modo muito residual e artificial; também há poucos esforços de fazer com que os textos dialoguem entre si. Em segundo lugar, tais textos são curtos, em geral introdutórios e indicativos, muitas vezes pouco mais do que papers acrescidos de algumas referências bibliográficas. Finalmente, pode-se lamentar certa falta de zelo editorial da obra, que não fornece maiores informações sobre seus colaboradores ou mesmo sobre o evento que a originou (mencionado apenas de passagem na Apresentação de Raquel Madanelo Souza). De todas essas formas, positivas e negativas, o livro surge como paradigmático de mobilizações intelectuais e acadêmicas em torno de efemérides como a que dos dois lados do Atlântico evocou o ano de 1808. Por vezes, tais mobilizações convidam não especialistas em determinado tema a visitarem-no e com ele efetivamente contribuírem, inovando campos do saber bem estabelecidos; em outras, dão maior visibilidade a pesquisas já em curso ou atualizam aquelas realizadas anteriormente; finalmente, pode-se despender esforços efêmeros e pouco produtivos a comprometerem a unidade e convergência de diálogos intelectuais imprescindíveis. Para todos os efeitos, porém, Travessias é um convite, um roteiro e uma fonte importante para uma agenda de estudos que não apenas está longe de esgotar-se, como ainda parece capaz de aproveitar-se da sazonalidade das efemérides. Que os 200 anos da Independência do Brasil, que se aproximam, o digam. João Paulo Pimenta é professor livre-docente do Departamento de História da FFLCH-USP.

eduardo cesar

João Paulo Pimenta


carreiras

perfil

Empreendedorismo precoce

foto  grupo positivo  ilustração  daniel bueno

Para Hélio Rotenberg, do grupo Positivo, investir em inovação é a fórmula do sucesso O empreendedorismo entrou bem cedo na vida de Hélio Rotenberg, de 52 anos, presidente da Positivo Informática desde 1989 e do grupo Positivo, que atua no segmento de educação, desde 2012. “Aos 14 anos já dava aulas particulares e aos 18 abri o meu primeiro empreendimento, a Pattin, uma pista de patinação em Curitiba”, diz Rotenberg, formado em engenharia civil pela Universidade Federal do Paraná (UFPR) e com mestrado em informática pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-RJ). Quando terminou o mestrado, em 1987, voltou para a capital paranaense com uma dúvida: não sabia se faria doutorado

ou se começaria um negócio. Na dúvida, deu aulas no Departamento de Informática do Centro Federal de Educação Tecnológica do Paraná (Cefet-PR). Uma propaganda na TV sobre o curso de informática das Faculdades Positivo – atualmente, Universidade Positivo – ajudou

Rotenberg: da educação para o desenvolvimento de uma indústria de computadores

na tomada de decisão. “Meu pai conhecia um dos professores, que me colocou para conversar com o professor Oriovisto Guimarães, um dos fundadores do grupo Positivo”, relata. “Em nossa primeira conversa expliquei o que era informática sem usar chavões ou termos técnicos e fui contratado.” Em 1988 começou a dar aulas e tornou-se o diretor do curso de informática. “Foi quando identifiquei uma oportunidade de vender computadores para as escolas que já compravam o nosso material didático”, diz. Após pesquisar o mercado, deu-se conta de que a criação de uma fábrica de computadores era viável e levou o projeto para os sócios. PESQUISA FAPESP 221 | 97


carreiras

98 | julho DE 2014

inovação

Oportunidades no Paraná Edital do Senai Sesi abre perspectiva para doutores em empresas O estado do Paraná lançou, em parceria com a Fundação Araucária, instituição de fomento à pesquisa estadual, uma chamada para seleção de 13 pesquisadores com doutorado, que serão contratados por um período de 20 meses para trabalhar no desenvolvimento de projetos em indústrias. Esses projetos foram aprovados no Edital Senai Sesi de Inovação em 2013, em nível nacional, dirigido a empresas que pretendiam desenvolver e implementar inovação em produtos, processos, serviços ou tecnologias sociais. Os pesquisadores selecionados atuarão nas áreas de biotecnologia, celulose e papel, ciências biológicas, ciências exatas, design, engenharia elétrica, eletrônica ou de software, estilismo em moda, física, madeira e mobiliário, química, sensores eletroquímicos, tintas e revestimentos.

“A paranaense foi a primeira fundação de amparo à pesquisa a apoiar projetos do Senai com indústrias”, diz Sonia Regina Hierro Parolin, gerente de Serviços Tecnológicos e Inovação do Senai no Paraná. Os contemplados com bolsas de R$ 4.100 mensais começarão a trabalhar em 15 de julho. No processo de seleção foram avaliados o perfil acadêmico e profissional dos candidatos, suas produções técnico-científicas e experiência no desenvolvimento de projetos de pesquisa ou inovação em parceria com indústrias. Os prazos para avaliação dos currículos terminaram no dia 23 de junho, mas uma nova chamada foi lançada porque, dos 24 candidatos inscritos, muitos deles davam aulas em universidades em regime de dedicação exclusiva. As informações podem ser acessadas no site www.senaipr.org.br. “Os candidatos devem estar comprometidos com, no máximo, 40 horas em sala de aula por mês”, ressalta Sonia Regina. Diferentemente das outras edições, o cronograma do edital 2014 terá fluxo contínuo no período que vai de 31 de março de 2014 a 23 de março de 2015, contemplando quatro avaliações. Esse novo formato pretende estimular a contratação de novos pesquisadores por empresas no Paraná. “A Fundação Araucária já se comprometeu a manter a iniciativa de dar bolsas para os novos projetos que forem aprovados.”

ilustração  daniel bueno

Dessa maneira, a empresa, um conhecido grupo educacional, partiu para uma área nova, que na época começava a dar os seus primeiros passos. Em maio de 1989 a Positivo Informática foi fundada e Rotenberg, aos 27 anos, assumiu o cargo de principal executivo da companhia. O projeto de criação da empresa, segundo o seu relato, começou com uma reflexão simples: as mais de mil escolas conveniadas da metodologia Positivo podiam ensinar informática a seus alunos e os materiais didáticos mais adequados para isso eram os computadores. Então eles poderiam ser fabricados e vendidos para as escolas junto com a metodologia. “Conversei com um dos nossos professores e ele me garantiu que era simples montar computador”, diz. Ele aprendeu como fabricá-lo e fez um plano de negócios para vender 30 computadores por mês a um preço equivalente hoje a R$ 15 mil. “Atualmente, vendemos mais de 200 mil equipamentos em um mês”, diz Rotenberg, que quando tem tempo livre gosta de dedicá-lo à leitura, a bons filmes, à família e a amigos. Para o executivo, a sua formação acadêmica foi fundamental: “A academia me deu a base e a segurança necessárias para que eu empreendesse”. Na sua visão, o grande desafio de todo líder empresarial atual é poder contar com os melhores talentos do mercado: identificá-los, atraí-los e retê-los. “A disputa pelos bons tende a ficar cada vez mais acirrada”, diz. Especialmente em uma empresa de tecnologia, outro desafio é não ficar obsoleto em meio a um cenário com cada vez mais produtos tecnológicos. “Pesquisar e investir em inovação é a fórmula do sucesso”, afirma.


classificados

­_ Anuncie você também: tel. (11) 3087-4212 | www.revistapesquisa.fapesp.br

Para quem lê e assina

Para quem anuncia

Pesquisa FAPESP

Pesquisa FAPESP

traz, todo mês, as

proporciona falar

mais atualizadas notícias

com um leitor

sobre pesquisa científica

qualificado, formador

e tecnológica nos vários

de opinião

campos do conhecimento.

e que decide.

Para assinar 11 3087-4237 assinaturaspesquisa@fapesp.br Para anunciar 11 3087-4212 publicidade@fapesp.br www.revistapesquisa.fapesp.br

Ciência em tempo real O conteúdo de Pesquisa FAPESP não termina aqui. Na edição on-line você encontrará vídeos, podcasts e mais notícias. Afinal, o conhecimento não espera o começo do mês para avançar.

Visite www.revistapesquisa.fapesp.br e se cadastre para receber o boletim.

Acompanhe também: @ PesquisaFapesp no twitter e a nossa página no facebook.


Equipamentos com a marca Uniscience

SHAKERS DIGITAIS E ANALÓGICOS Compactos e com agitação suave

CENTRÍFUGAS Modelos para centrifugações de baixa e alta rotação

v

No

Visite agora nosso site e conheça outros equipamentos e produtos que seu laboratório necessita.

VORTEX E AGITADOR DE PLACAS Ideais para homogeneização de amostras em microtubos ou placas

PIPETADORES E MICROPIPETAS Leves e ergonômicas, garantem amostragem exata e precisa na distribuição de volumes de líquidos

HOMOGENEIZADOR

BANHO SECO 0 à 100°C Uniscience do Brasil

30 anos de confiança e seriedade

www.uniscience.com.br

BANHO SECO Ambiente à 100°C

Conheça também nossa Loja Virtual vendas@uniscience.com.br T. +55 11 3622.2320 F. +55 11 3622.2323

Siga-nos no Twitter Curta nossa página no facebook

es

d ida

Fique por dentro das promoções incríveis que preparamos e encontre os melhores produtos e equipamentos para o seu laboratório!

www.uniscience-shop.com.br

Pesquisa FAPESP 221  

O monitor do cérebro

Pesquisa FAPESP 221  

O monitor do cérebro