Issuu on Google+

Pesquisa FAPESP março de 2012

março de 2012 . www.revistapesquisa.fapesp.br

obesidade

Bactérias do intestino aumentam o ganho de peso A COR DA PELE

Teste genético identifica a distância características físicas Sorgo

Planta começa a entrar na produção de etanol greves

Trocando salário por cidadania

n.193

A preservação da Terra Contribuição de São Paulo à Rio+20 inclui avanços em bioenergia e políticas para biodiversidade e mudanças climáticas


Biota-Bioen-PFPMCG Joint Workshop: Science and Policy for a Greener Economy in the context of Rio+20 Workshop conjunto Biota-Bioen-PFPMCG: ciência e políticas para uma economia mais verde no contexto da Rio+20

Com o objetivo de contribuir para as discussões da Conferência das Nações Unidas sobre Desenvolvimento Sustentável (UNCSD), também chamada de Rio+20, que se realizará em junho no Rio de Janeiro, a FAPESP realiza em março um workshop conjunto de seus programas de pesquisa sobre biodiversidade (Biota), bioenergia (Bioen) e mudanças climáticas globais (PFPNCG). O objetivo é discutir o tema central da Rio+20, que é a economia verde no contexto do desenvolvimento sustentável e da erradicação da pobreza, além de apresentar a contribuição da pesquisa paulista para a conferência, com ênfase em tópicos como a produção de bioenergia, os mecanismos de mitigação das mudanças climáticas e

eduardo cesar

a conservação da biodiversidade, entre outros.


fotolab

Flores do mal Sob o ataque do pterocarpano, uma substância extraída da raiz de uma árvore brasileira, células de tumor de mama humano não conseguem formar as estruturas necessárias à separação dos cromossomos na divisão celular. Em busca de novos medicamentos contra o câncer, o grupo de Glaucia Santelli identificou o mecanismo de ação desse composto que bloqueia a proliferação celular. Na imagem observada ao microscópio confocal de varredura a laser, proteínas que conferem estrutura às células aparecem em verde Se você tiver uma imagem relacionada a pesquisa, envie para imagempesquisa@fapesp.br, com resolução de 300 dpi (15 cm de largura) ou com no mínimo 5 MB. Seu trabalho poderá ser selecionado pela revista.

e azul e o material genético se destaca em vermelho.

Foto enviada por Glaucia Santelli Instituto de Ciências Biomédicas Universidade de São Paulo (ICB-USP) PESQUISA FAPESP 193 | 3


março 2012

n.

193

Política científica e tecnológica 32 História da FAPESP IX

As metrópoles se transformaram, assim como os paradigmas da pesquisa sobre os problemas urbanos

18

36 Formação de recursos humanos 18 CAPA Como a pesquisa brasileira pode contribuir para as decisões da Conferência sobre Desenvolvimento Sustentável Foto da capa  Estátua do Cristo Redentor no Corcovado, Rio de Janeiro Crédito  Robert Mertens / Getty Images

Workshops discutem caminhos para ampliar a participação dos físicos no esforço de inovação das empresas

ciÊncia

tecnologia

38 Resistência à insulina

62 Biocombustíveis

Mudança no perfil da microbiota intestinal favorece o desenvolvimento de diabetes e obesidade

42 Parasitas emergentes entrevista 26 Hernan Chaimovich O bioquímico da USP relembra sua trajetória, de Santiago do Chile a São Paulo, e diz que nenhum país integra culturas como o Brasil

seçÕes 3 Fotolab 6 Cartas 7 Carta da editora 8 On-line 9 Wiki 10 Dados e projetos 11 Boas práticas 12 Estratégias 14 Tecnociência 90 Memória 92 Resenhas 94 Arte 96 Conto 98 Classificados 4 | março DE 2012

Começam a aparecer os tipos locais de protozoário causador de encefalites

46 Análises forenses

Testes permitem descobrir características raciais sem a presença das pessoas

50 Interação ambiente-atmosfera

Estudo avalia o impacto real de vegetações nativas e cultivadas das Américas sobre a temperatura global

Sorgo é plantado para produzir etanol na entressafra de cana

66 Indústria de papel

Pequena empresa desenvolve enzima para alvejar a celulose sem dano ambiental

69 Análise de água

Pesquisadores utilizam microrganismo para detectar hormônio em rios

72 Cinema

Sistema armazena e transmite filmes em superalta definição

humanidades

52 Discórdia quântica

74 Cidadania

58 Vida extraterrestre

80 Tecidos da história

61 Obituário

86 A pátria em sons

Sistemas à temperatura ambiente podem ter uma porção quântica útil para a computação Organismos invisíveis a olho nu demonstram capacidade de resistir a viagens interplanetárias A química Blanka Wladislaw pesquisou e ensinou com a mesma intensidade

Ciclo de greves entre 1978 e 1992 foi fundamental para a democratização brasileira Trajes antigos desvelam o que a Primeira República escondia por debaixo das roupas Pesquisas contestam visão da obra de Villa-Lobos como mero nacionalismo exótico


agronomia

32

Ambiente

astrofísica

biodiversidade

bioenergia

biologia

58

bioquímica

biotecnologia

Ciência Política

clima

62

computação

comunicação

endocrinologia

46

52

energia

evolução

74

Física

fisiologia

genética

imunologia

inovação

medicina

microbiologia

moda

80

música

sociologia

tecnologia da informação

urbanismo

PESQUISA FAPESP 193 | 5


fundação de amparo à pesquisa do estado de são Paulo

cartas cartas@fapesp.br

Celso Lafer Presidente Eduardo Moacyr Krieger vice-Presidente Conselho Superior Celso Lafer, Eduardo Moacyr Krieger, Horácio Lafer Piva, Herman Jacobus Cornelis Voorwald, Maria José Soares Mendes Giannini, José de Souza Martins, José Tadeu Jorge, Luiz Gonzaga Belluzzo, Sedi Hirano, Suely Vilela Sampaio, Vahan Agopyan, Yoshiaki Nakano Conselho Técnico-Administrativo José Arana Varela Diretor presidente Carlos Henrique de Brito Cruz Diretor Científico Joaquim J. de Camargo Engler Diretor Administrativo

issn 1519-8774

Conselho editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Marcelo Leite, Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani, Mônica Teixeira comitê científico Luiz Henrique Lopes dos Santos (Presidente), Cylon Gonçalves da Silva, Francisco Antônio Bezerra Coutinho, João Furtado, Joaquim J. de Camargo Engler, José Arana Varela, José Roberto Parra, Luís Augusto Barbosa Cortez, Luis Fernandez Lopez, Marie-Anne Van Sluys, Mário José Abdalla Saad, Paula Montero, Sérgio Queiroz, Wagner do Amaral, Walter Colli

Coordenador científico Luiz Henrique Lopes dos Santos Diretora de redação Mariluce Moura editor chefe Neldson Marcolin Editores executivos Carlos Haag (Humanidades), Fabrício Marques (Política), Marcos de Oliveira (Tecnologia), Maria Guimarães (Edição on-line), Ricardo Zorzetto (Ciência) editores especiais Carlos Fioravanti, Marcos Pivetta Editores assistentes Dinorah Ereno, Isis Nóbile Diniz (Edição on-line) revisão Márcio Guimarães de Araújo, Margô Negro editora de arte Laura Daviña ARTE Ana Paula Campos, Maria Cecilia Felli fotógrafos Eduardo Cesar, Leo Ramos Colaboradores Ana Lima, André Serradas (Banco de imagens), Daniel Bueno, Drüm, Evanildo da Silveira, Gabriel Bitar, Gustavo Fioratti, Igor Zolnerkevic, Larissa Ribeiro, Maria Hirszman, Nelson Provazi, Salvador Nogueira, Tiago Cirillo, Yuri Vasconcelos

É proibida a reprodução total ou parcial de textos e fotos sem prévia autorização

Para falar com a redação (11) 3087-4210 cartas@fapesp.br Para anunciar (11) 3087-4212 mpiliadis@fapesp.br Para assinar (11) 3038-1434 fapesp@acsolucoes.com.br

Tiragem 39.000 exemplares IMPRESSão Plural Indústria Gráfica distribuição Dinap

GESTÃO ADMINISTRATIVA INSTITUTO UNIEMP PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo

6 | março DE 2012

Fome

Estudo o Brasil colonial por meio das edições filologicamente cuidadas de documentos manuscritos do século XVIII em pesquisa que faço na Universidade de São Paulo (USP). O acesso à mentalidade e cultura do período é inerente ao desenvolvimento do projeto. Com isso, a leitura da reportagem “Você tem fome de quê?” (edição 191) acerca da alimentação de nossos antepassados acrescentou demais: tanto por quebrar clichês históricos quanto por abrir as janelas da curiosidade a pesquisadores da área e, sobretudo, por escancarar portas à reflexão dos brasileiros. O estudo da historiadora Leila Algranti dá água na boca daqueles que, como a FAPESP, investem no conhecimento científico por acreditarem que o Brasil pode evoluir por meio da “dinâmica cultural de constante recriação da maneira de viver”, como diz no texto a antropóloga Maria Eunice Maciel.

complementar em nível de educação formativa e informativa básica no ensino fundamental e médio (“Berçários móveis”, edição 187). Dessa forma, o incentivo de projetos dentro das unidades escolares possibilitará esclarecer dados importantes dessas áreas ameaçadas e estimular uma conscientização e multiplicação do saber acerca da preservação da fauna, flora e solo dessas regiões, que são afetadas inclusive por ações antropogênicas. Marte Ferreira da Silva Atibaia, SP

Renata Ferreira Munhoz Santo André, SP

Preservação

Para dar início a um processo de preservação sólido do ambiente estuarino ou dos manguezais onde podemos encontrar exemplos como a Rhizophora, a Laguncularia e a Avicennia, que são espécies de plantas específicas do ecossistema de mangue, é necessário um trabalho

Cartas para esta revista devem ser enviadas para o e-mail cartas@fapesp.br ou para a rua Joaquim Antunes, 727, 10º andar - CEP 05415-012, Pinheiros, São Paulo-SP. As cartas poderão ser resumidas por motivo de espaço e clareza.


carta da editora

Contribuições sólidas à Rio+20 Mariluce Moura Diretora de Redação

C

ientistas de São Paulo querem influir decisivamente nos debates e fazer com que a pesquisa brasileira contribua de forma efetiva para as decisões da Rio+20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, de 20 a 22 de junho. Não se trata, claro, de um empenho da comunidade inteira, mas principalmente dos pesquisadores que atuam nos campos da biodiversidade, das energias de fontes renováveis e das mudanças climáticas globais e estão envolvidos em projetos apoiados por grandes programas da FAPESP nessas áreas. É ambição de boa envergadura, a justificar, pouco mais de três meses antes da conferência, sua transformação em objeto de capa desta edição de Pesquisa FAPESP, a cargo de nosso editor de política, Fabrício Marques. Há outros dados factuais para a escolha: nos dias 6 e 7 deste mês de março, as preocupações e propostas dos pesquisadores paulistas começam a vir à luz de forma sistematizada num workshop organizado pela Fundação. E se tudo estiver caminhando como previsto, desse encontro sai para o comitê da conferência um documento, nem um pouco impressionista, e sim baseado nas respostas dadas por centenas de pesquisadores a um questionário cuja intenção era exatamente auscultar suas visões sobre os temas em pauta na Rio+20. A essa altura, está fora de dúvida que assuntos como a criação de um modelo climático brasileiro e as rotas de produção sustentável de biocombustíveis entrarão nos tópicos da contribuição paulista. Para informações muito mais detalhadas, vale a pena ler a reportagem a partir da página 18. *** Dentre as reportagens da editoria de ciência gostaria de destacar a que trata de uma pesquisa que, se fosse um post nas redes sociais, estaria alçada com folga à categoria de trending topic. Desde dezembro, esse estudo que evidencia uma situação em que as bactérias dos intestinos podem causar prejuízo para o organismo humano, publicado na PLoS Biology, já foi acessado cerca de 11 mil vezes, o que dá uma medida da atenção que despertou.

Liderada pelo professor Mário Abdalla Saad, da Universidade Estadual de Campinas (Unicamp), a equipe responsável pelo trabalho demonstrou que um determinado grupo de bactérias intestinais pode iniciar, em certas situações, um desequilíbrio metabólico relacionado à resistência à insulina capaz de levar ao desenvolvimento de diabetes e de obesidade, dois imensos problemas contemporâneos de saúde pública. Vale a pena ler a reportagem de nosso editor de ciência, Ricardo Zorzetto, a partir da página 38. *** O sorgo, planta mais conhecida por fornecer forragem para o gado ou sementes para aves e suínos, tornou-se nesta edição da revista a peça de resistência da seção de tecnologia. Tudo porque essa gramínea, parente da cana-de-açúcar, está sendo preparada por pesquisadores da Embrapa para integrar a matriz energética brasileira. O etanol do sorgo, como explica a partir da página 62 Marcos de Oliveira, nosso editor de tecnologia, deverá suprir a tradicional escassez do produto feito de cana entre dezembro e março e produzir, assim, impacto positivo nas variações de preço do combustível. É esperar para ver, mas pode-se ter mais detalhes do projeto desde já. *** Vou encerrar os destaques desta edição com a reportagem de abertura da seção de humanidades que se debruça sobre um estudo do ciclo de 20 anos de greves no ABC paulista, cujo epicentro se pode situar entre os anos de 1985 e 1992. O fato é que as 118 greves de 1978 e as mais de 2 mil dos 10 anos seguintes incluíram o Brasil entre os países com maiores níveis de paralisações dentro do mundo ocidental, conforme reportagem de nosso editor de humanidades, Carlos Haag. O que se queria com tantas greves, além das óbvias reivindicações salariais? Vale a pena ler o texto a partir da página 74, para tomar contato com uma visão segundo a qual as greves desses anos fazem parte da trajetória brasileira de democratização. Ou de amadurecimento da sociedade brasileira. PESQUISA FAPESP 193 | 7


Nas redes

w w w . re v is t apes q uisa . fapesp . br

André Rabelo_ A edição da Pesquisa

foto eduardo cesar

on-line

Fapesp deste mês [fevereiro] está muito interessante, gostei

Podcast

Exclusivo no site } Foi aprovado pela Anvisa o primeiro stent cardiovascular farmacológico desenvolvido no Brasil. O dispositivo serve para manter as artérias livres de placas de gordura que podem comprometer a passagem de sangue, evitando infartos ou intervenções cirúrgicas como as pontes de safena. Até a criação do dispositivo mais recente, estavam disponíveis apenas stents sem fármacos de fabricação nacional, mas entre 10% e 20% das pessoas voltam a ter obstrução no local devido à cicatrização ao redor do objeto. Daí a importância de se implantar aqueles com drogas antiproliferativas de tecidos.

informativa sobre o programa SciELO. Pensei na importância que ele pode ter na discussão sobre open access (1,2 milhão de downloads por dia). Ronaldo M. Marinsky_ Uma excelente cobertura sobre o trabalho dos neurocientistas brasileiros. Pesquisadores brasileiros das áreas da neurociência mostrando que é possível desenvolver pesquisa de ponta no Brasil (Números em revisão). @Phablo Gouvêa_ Os pesquisadores interessados em convergência

} Conceder pagamentos a quem preserva intactas as florestas de todo o planeta evitaria a extinção de plantas e animais? Segundo levantamento mais detalhado já feito sobre o assunto, a medida pode impedir que uma em cada quatro espécies de seres vivos que habitam as florestas desapareça até o ano 2100. O estudo sobre o impacto do mecanismo que recompensa financeiramente países dispostos a reduzir as emissões de gases provenientes da derrubada de florestas, chamado Redução das Emissões por Desmatamento e Degradação (REDD), prevê uma extinção em massa caso nada seja desembolsado.

tecnológica entre as disciplinas, vale a leitura (Pontes entre disciplinas). Brenda Taketa_ Muito boa a matéria, com alertas dignos de nota. No meio de tudo, a importância do país em desmistificar o sexo, assistir melhor as mulheres e promover políticas destinadas à contracepção e reprodução, o que inclui programas eficazes de prevenção à gravidez (e não apenas às doenças sexualmente transmissíveis), a legalização do aborto e a ampliação de serviços para a reprodução assistida (Brasil em transição demográfica).

Vídeo do mês Saiba como a alimentação pode ajudar a entender a colonização do Brasil http://www.youtube.com/user/PesquisaFAPESP

8 | março DE 2012

Assista ao vídeo:

Para ler o código ao lado faça o download do leitor de QR CODE no seu smartphonE

Stents sem medicação já eram fabricados no Brasil

Revelações sobre mamíferos do cerrado e da caatinga contestam hipótese da origem florestal das espécies

especialmente da matéria


WiKi

o que é, o que é? Neurônio-espelho

Pergunte ao pesquisador O que causa a sensação de dormência nas mãos e nos pés? Mayumi Okuyama [via e-mail]

Wilson Marques Junior Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (FMRP/USP) Quando uma pessoa

carência de vitamina B1,

cruza a perna ou

normalmente encontrada

dorme com o braço

em cereais e legumes,

sob o corpo, nervos

pode gerar a dormência.

periféricos podem ser

A disfunção se normaliza

comprimidos, afetando

quando a pessoa para de

a circulação sanguínea

ingerir bebidas alcoólicas

em seu interior. Se a

e passa a se alimentar

compressão não for

corretamente, antes

intensa e logo cessar, a

que a lesão se torne

circulação se refaz e a

irreversível.

sensação de dormência desaparece.

ilustração daniel bueno  foto leo ramos

Outras lesões podem

Outras doenças também podem gerar o formigamento. No

ter consequências mais

diabético, a neuropatia

graves e duradouras. É

é provocada por uma

o caso da síndrome do

disfunção metabólica

túnel do carpo, frequente

do nervo e se torna

em trabalhadores

permanente caso

manuais. Ela tem origem

a doença não seja

no estrangulamento de

controlada. Na

um nervo do punho e,

hanseníase, a sensação

conforme a gravidade,

é provocada pela

requer tratamento

multiplicação do bacilo

clínico ou cirúrgico.

de Hansen no interior

Mas o formigamento nem sempre tem

Mande sua pergunta para o e-mail wikirevistapesquisa@fapesp.br, pelo facebook ou pelo twitter @PesquisaFapesp

Um neurônio-espelho, uma das descobertas mais importantes da neurociência na última década, está ligado à visão e ao movimento. Permite o aprendizado por imitação, já que é acionado quando é necessário observar ou reproduzir o comportamento de outros seres da mesma espécie. Por essa razão, acredita-se, é a base das habilidades sociais dos primatas. “Um neurônio-espelho pode ser usado para analisar cenas ou intenções de outros indivíduos”, comenta o neurocientista Stevens Rehen, da Universidade Federal do Rio de Janeiro (UFRJ), O neurônio-espelho foi descrito inicialmente em macacos por pesquisadores da Universidade de Parma, na Itália, em 2004. “Técnicas de neuroimagem sugerem a existência de células com as mesmas características no cérebro de humanos”, diz Rehen. Cogita-se, porém, que não seja um privilégio de primatas e possa ser encontrado também em outros animais, como as aves. Sua localização já está definida – no córtex pré-motor e lobo parietal inferior dos primatas –, mas ainda há dúvidas sobre o alcance de suas funções. Estudos recentes indicam que o neurônio-espelho está ligado à observação e imitação das expressões faciais e dos movimentos das mãos e, num estágio seguinte, dos próprios movimentos. O estudo das propriedades dessas células tem ajudado a entender a origem de alguns distúrbios neurológicos. O autismo, por exemplo, poderia resultar de disfunções dos neurônios-espelho. Stevens Rehen, Universidade Federal do Rio de Janeiro (UFRJ)

do nervo e pela resposta imunológica do doente.

causa mecânica. No

Se não for tratada no

alcoolismo, a toxicidade

início, os danos podem

da bebida ou a

ser irreversíveis PESQUISA FAPESP 193 | 9


Dados e projetos Temáticos e Jovem Pesquisador recentes Projetos contratados entre janeiro e fevereiro de 2012

temáticos  Propriedades ópticas e estruturais de elastômeros e fluidos complexos de interesse biológico Pesquisador responsável: Antonio Martins Figueiredo Neto Instituição: IF/USP Processo: 2011/13616-4 Vigência: 01/07/2012 a 30/06/2017

 Espectroscopia terahertz no domínio do tempo: desenvolvimento de métodos analíticos, técnicas de processamento de sinais, estudos bioquímicos e fundamentais Pesquisador responsável: Célio Pasquini Instituição: IQ/Unicamp Processo: 2011/13777-8 Vigência: 01/01/2012 a 31/12/2015  Modularidade e suas consequências evolutivas Pesquisador responsável: Gabriel Henrique Marroig Zambonato Instituição: IB/USP Processo: 2011/14295-7 Vigência: 01/02/2012 a 31/01/2017  Desenvolvimento e disponibilização de softwares de simulação em mecânica computacional: consolidação do Laboratório de Informática e Mecânica Computacional – LIMC Pesquisador responsável: Humberto Breves Coda Instituição: EESC/USP Processo: 2011/15731-5 Vigência: 01/02/2012 a 31/01/2016  Impact of the Southern Atlantic on the global overturning circulation (MOC) and climate (Samoc). (Facepe/ANR)

Pesquisador responsável: Edmo José Dias Campos Instituição: IO/USP Processo: 2011/50552-4 Vigência: 01/12/2011 a 30/11/2015

 Projeto Coqueiral: desafios associados à qualidade da água em ambiente urbano - aquíferos de Recife e uso do solo: como enfrentar a contaminação e a salinização das águas subterrâneas. (Facepe/ANR) Pesquisador responsável: Ricardo Cesar Aoki Hirata Instituição: IG/USP Processo: 2011/50553-0 Vigência: 01/12/2011 a 30/11/2014  Desenvolvimento de sistemas para produção de hidrogênio e para geração e utilização de energia eletroquímica. (FAPESP-MCT/CNPq-Pronex 2011) Pesquisador responsável: Ernesto Rafael Gonzalez Instituição: IQSC/USP Processo: 2011/50727-9 Vigência: 01/02/2012 a 31/01/2016  Modelos e métodos de e-Science para ciências da vida e agrárias. (FAPESP-MCT/CNPq/Pronex-2011) Pesquisador responsável: Roberto Marcondes César Júnior Instituição: IME/USP Processo: 2011/50761-2 Vigência: 01/02/2012 a 31/01/2016  Núcleo de excelência em física e aplicações de plasmas. (FAPESP-MCT/ CNPq-Pronex-2011) Pesquisador responsável: Ricardo

Magnus Osório Galvão Instituição: IF/USP Processo: 2011/50773-0 Vigência: 01/02/2012 a 31/01/2016

Processo: 2010/52404-0 Vigência: 01/02/2012 a 31/01/2016

 Origem e evolução das serpentes e a sua diversificação na região neotropical: uma abordagem multidisciplinar Pesquisador responsável: Hussam El Dine Zaher Instituição: MZ/USP Processo: 2011/50206-9 Vigência: 01/12/2011 a 30/11/2016 Jovem Pesquisador  Estudos sobre mecanismos de desacoplamento mitocondriais por ácidos graxos não esterificados como estratégia de prevenção/tratamento da obesidade Pesquisadora responsável: Luciane Carla Alberici Instituição: FCFRP/USP Processo: 2010/17259-9 Vigência: 01/02/2012 a 31/01/2016

 Bases moleculares da resistência à leptina Pesquisador responsável: José Donato Jr. Instituição: ICB/USP Processo: 2010/18086-0 Vigência: 01/02/2012 a 31/01/2016  Laserterapia de baixa potência na fadiga muscular e recuperação muscular pós-exercício: parâmetros ideais de aplicação e efeitos em exercício de longa duração Pesquisador responsável: Ernesto César Pinto Leal Junior Instituição: Uninove Campus Vergueiro

 Mecanismos moleculares envolvidos na modulação da atividade física espontânea e desenvolvimento da obesidade Pesquisadora responsável: Camila Aparecida Machado de Oliveira Instituição: ISS/Unifesp Processo: 2011/05932-3 Vigência: 01/03/2012 a 29/02/2016  Estudo do comportamento térmico, mecânico e magnético de uma liga quaternária de Cu-Al-Mn-Ag Pesquisador responsável: Ricardo Alexandre Galdino da Silva Instituição: ICAQF/Unifesp Processo: 2011/11041-4 Vigência: 01/02/2012 a 31/01/2015  Estudo de manobras orbitais para escape de colisão de um veículo espacial com grupos de partículas Pesquisadora responsável: Vivian Martins Gomes Instituição: ICT/Unifesp Processo: 2011/13101-4 Vigência: 01/03/2012 a 29/02/2016  Desenvolvimento de novos scaffolds poliméricos por eletrofiação com incorporação de nanotubos alinhados e nano-hidroxiapatita para regeneração óssea Pesquisador responsável: Anderson de Oliveira Lobo Instituição: IP&D/Univap Processo: 2011/17877-7 Vigência: 01/02/2012 a 31/01/2016

Proteção americana Patentes obtidas no Uspto de 2006 a 2010, segundo o país do inventor País

Patentes

País

Patentes

País

Patentes

21 Hong Kong (China)

1.691

6.714

22 Espanha

1.597

13 Suíça

6.164

23 Noruega

1.428

14 Suécia

5.812

24 Rússia

1.004

15 Finlândia

4.631

25 Irlanda

913

16 Índia

3.438

26 Malásia

783

17.314

17 Bélgica

3.069

27 Nova Zelândia

649

7.283

18 Áustria

2.728

28 Brasil

590

9 China

6.970

19 Cingapura

2.243

29 África do Sul

491

10 Austrália

6.850

20 Dinamarca

2.213

30 México

337

1 Japão

184.158

11 Holanda

2 Alemanha

49.333

12 Israel

3 Coreia do Sul

40.184

4 Taiwan

33.708

5 Canadá

18.790

6 Reino Unido

17.436

7 França 8 Itália

Fonte: The United States Patent and Trademark Office (Uspto)

10 | março DE 2012

6.805


Boas práticas Para cada item, um só financiamento em Energia do DOE (Arpa-E), alegando que não tinha outra fonte de financiamento. A universidade questionou Grimes sobre os grants tão similares e ele assegurou que não havia sobreposição. Mas em um paper de 2010 admitiu que as duas agências tinham apoiado o mesmo trabalho. Foi então que o inspetor-geral do DOE descobriu a o problema, a NSF começou sua investigação e Grimes perdeu seu posto na universidade. As acusações contra o pesquisador ainda incluem apropriação indevida de financiamento dos Institutos Nacionais de Saúde (NIH) para testar um sensor de sangue em recém-nascidos, mas este caso ainda está em fase de investigação.

daniel bueno

O financiamento superposto de duas ou mais agências de fomento a um mesmo projeto de pesquisa pode soar como um sonho para alguns pesquisadores, diz comentário na Nature de 9 de fevereiro passado, assinado por Eugenie Samuel Reich. Mas as denúncias de fraude em grants feitas pelas autoridades americanas em 31 de janeiro passado podem funcionar como advertência aos que se sentem tentados a se valer de recursos duplicados para os mesmos itens de um projeto. As acusações também serviram de alerta às agências para a necessidade de evitar a duplicação indevida de grants. O alvo da denúncia foi Craig Grimes, até 2010 professor de engenharia elétrica na Universidade do Estado da Pensilvânia. Em janeiro ele admitiu ser culpado das acusações que incluem ter recebido simultaneamente grants do Departamento de Energia (DOE) e da Fundação Nacional de Ciência (NSF) para bancar os mesmos itens de uma pesquisa sobre conversão solar de dióxido de carbono em hidrocarbonetos. Se é legítimo solicitar auxílio a duas agências para um mesmo projeto, recebê-los de fato e usá-los é ilegal, disse Christine Boez, ex-inspetora-geral para a NSF à Nature. O duplo financiamento é proibido em muitos países, mas não há meios, segundo ela, de saber a prevalência do problema. Os casos tendem a vir à luz somente se os revisores detectam similaridades em propostas de grants submetidas às agências. Grimes recebeu da NSF um grant para sua pesquisa em 2009 e, mais adiante, no mesmo ano, recebeu um segundo da Agência de Projetos de Pesquisa Avançada

A obrigação de atribuir a autoria A Fundação de Pesquisa Alemã (DFG) excluiu um pesquisador do direito de submeter propostas à agência por dois anos – sanção reservada somente a violações sérias das boas práticas acadêmicas – e enviou uma reprimenda por escrito a um segundo em decorrência de suas condutas inadequadas no tratamento de material de terceiros. Os casos foram investigados e tratados de acordo com os procedimentos já estabelecidos pela DFG para lidar com má conduta científica, informou o serviço de notícias Eurekalert em 15 de fevereiro passado. No primeiro caso, o pesquisador incluiu em sua proposta de financiamento trechos de um manuscrito ainda inédito sem identificar o verdadeiro autor, o que configura plágio. Mais grave, entretanto,

é que o autor era seu superior e lhe entregara o manuscrito inédito para uma revisão, o que configura, na avaliação do Comitê Conjunto de Investigação, acatada pela DFG, quebra de confiança somada ao plágio. Mas é interessante notar que, para o comitê, também o superior do pesquisador punido agiu de forma inapropriada ao delegar a um subordinado a tarefa de revisar seus originais. Daí a expectativa, segundo Dorothee Dzwonnek, secretária-geral da Fundação de Pesquisa Alemã, de que a universidade onde os dois pesquisadores trabalham conduza sua própria investigação sobre esses atos de má conduta científica. O segundo caso envolveu também uso de material de terceiro sem citação de fonte numa proposta de bolsa apresentada à DFG. PESQUISA FAPESP 193 | 11


Estratégias José Arana Varela é o novo diretor-presidente O físico José Arana Varela, professor titular da Universidade Estadual Paulista (Unesp), é o novo diretor-presidente do Conselho Técnico-Administrativo (CTA) da FAPESP em substituição a Ricardo Brentani, que morreu em novembro. Varela era o primeiro nome de uma lista tríplice enviada pelo Conselho Superior da Fundação ao secretário de Desenvolvimento Econômico, Ciência e Tecnologia, Paulo Alexandre Barbosa, que a encaminhou ao governador Geraldo Alckmin para a escolha. Professor do Departamento de Físico-Química do Instituto de Química de Araraquara, Varela é o primeiro docente da Unesp a assumir o cargo

de diretor-presidente do CTA. Foi membro do Conselho Superior da FAPESP e assumiu a vice-presidência da Fundação entre 2008 e 2010. Graduado em física pela Universidade de São Paulo (1968), fez mestrado em física pelo Instituto Tecnológico de Aeronáutica (1975) e doutorado em materiais cerâmicos pela Universidade de Washington (1981). Autor de mais de 500 artigos em revistas internacionais, sempre teve forte interesse na questão da inovação. É diretor executivo da Agência Unesp de Inovação e foi diretor de inovação do Centro Multidisciplinar para o Desenvolvimento de Materiais Cerâmicos, um dos 11 Centros de Pesquisa, Inovação e Difusão

Varela: professor titular da Unesp

1

(Cepid) apoiados pela FAPESP. É membro do conselho da World Academy of Ceramics, com sede na Itália, membro do Conselho Superior de Inovação e Competitividade da Federação das Indústrias do Estado de São Paulo (Fiesp) e da Sociedade Brasileira de Física, membro fellow da American Ceramic Society e membro da Materials Research Society, ambas nos Estados Unidos.

12 | março DE 2012

Entra em operação

Núcleo de Astrofísica

maiores, mas o tempo

neste mês um dos

Teórica (NAT) da Unicsul.

de processamento é

maiores e mais potentes

Composto por três

dividido entre várias

clusters – aglomerado

torres, o conjunto de

áreas e não são

de computadores –

computadores possui

dedicados totalmente à

voltados exclusivamente

2,3 mil núcleos de

astronomia”, disse Alex

para pesquisas

processamento.

Carciofi, professor da

astronômicas no mundo.

O cluster utilizado

USP e responsável pela

Avaliado em mais de

anteriormente pela

implementação do

US$ 1 milhão, o

instituição possuía

projeto, à Agência

equipamento está

apenas 40 núcleos de

FAPESP. De acordo com

instalado no Instituto de

processamento. “Não

ele, o aglomerado de

Astronomia, Geofísica e

conhecemos nenhum

computadores

Ciências Atmosféricas

departamento de

possibilitará rodar mais

(IAG) da Universidade

astronomia no mundo

modelos matemáticos

de São Paulo (USP) e foi

com essa capacidade

(simulações numéricas)

adquirido com apoio da

computacional. Existem

utilizados para estudar

FAPESP por meio do

universidades e

os sistemas

Programa Equipamentos

consórcios entre

astronômicos, como

Multiusuários, em

instituições de pesquisa

estrelas, galáxias e meios

projeto do IAG-USP e do

com clusters muito

interestelares.

fotos  1. leo ramos  2. Skolkovo / Flickr 3. eduardo cesar  ilustraçãO  daniel bueno

Fôlego para a pesquisa em astronomia


Nomes para a lista tríplice Instituições de ensino

escolha do novo

superior e de pesquisa

integrante do Conselho

do estado de São Paulo

Superior da FAPESP.

podem se credenciar para

A votação será realizada

participar do processo

no período de 11 a

que irá escolher um novo

15 de junho de 2012,

membro do Conselho

por via eletrônica,

Superior da Fundação,

encerrando-se às 17 horas

em conformidade com

do último dia. Uma

a Portaria PR nº 03/2012,

comissão eleitoral fará

publicada no Diário

a apuração pública

Oficial do Estado de São

do resultado, na sede

Paulo. A vaga será aberta

da Fundação, e formará

com o término do

a lista tríplice com os

mandato do conselheiro

nomes dos candidatos

José Tadeu Jorge em

mais votados.

28 de junho de 2012.

2

O Centro de Inovação Skolkovo, nos arredores de Moscou: em busca de parceiros internacionais

Enclave russo da inovação O governo russo promete

energia e espaço.

inaugurar até 2014

Os regimes fiscal e de

uma cidade tecnológica

propriedade intelectual

As instituições que

para 30 mil pessoas nos

serão mais flexíveis do

O processo resultará

desejarem participar

arredores de Moscou,

que os vigentes na Rússia.

na elaboração de uma

do processo eleitoral

com a ambição de dar

Uma das metas é atrair

lista tríplice, que será

deverão credenciar-se

impulso à inovação num

600 empresas nascentes,

encaminhada ao

junto à FAPESP no

país que viu sua ciência

disse ao Wall Street

governador do estado

período de 1º a 20 de

decair após o fim da

Journal Conor Lenihan,

para que seja feita a

março de 2012.

União Soviética. O projeto

ex-ministro da Ciência

Skolkovo vai abrigar uma

da Irlanda e responsável

universidade em parceria

por buscar parcerias

com o Massachusetts

internacionais para o

Institute of Technology

projeto. A ciência russa,

para mais de 1,2 mil

diz Lenihan, tem uma

estudantes, um parque

história rica, mas ainda

tecnológico e centros de

não se recuperou do

pesquisa nas áreas

êxodo de pesquisadores

nuclear, biomédica, de

nos anos 1990 após

tecnologia da informação,

o colapso soviético.

Celso Lafer, o ministro Raupp, Eduardo Krieger e Carlos Henrique de Brito Cruz, na sede da FAPESP

3

Raupp visita a FAPESP Em visita à sede da FAPESP no dia 27 de fevereiro, o ministro da Ciência, Tecnologia e Inovação, Marco Antonio Raupp, deu como certa a integração da Agência Espacial Brasileira (AEB) com o Instituto Nacional de Pesquisas Espaciais (Inpe). “A AEB foi criada muito depois do Inpe e apenas para mostrar ao mundo que o programa brasileiro era civil. Mas não atribuíram a ela o comando das entidades tecnológicas. Isso prejudicou muito o funcionamento do sistema”, afirmou o ministro. Seguindo a mesma linha,

o ministro pretende aumentar a influência das outras agências e secretarias ligadas ao Ministério da Ciência, Tecnologia e Inovação (MCTI) sobre todos os institutos de pesquisa federais. O objetivo da visita à FAPESP, segundo o ministro Raupp, foi “aumentar e qualificar” os projetos realizados em parceria com a Fundação. O ministro ressaltou que alguns dos projetos “mobilizadores da política pública de ciência e tecnologia” estão em São Paulo. “Já temos parcerias bem estabelecidas com a FAPESP nos institutos

federais, como a do supercomputador instalado no Inpe para pesquisas climáticas. Mas queremos a participação da FAPESP também nos projetos novos”, afirmou Raupp. O presidente da FAPESP, Celso Lafer, destacou que a área de ciência, tecnologia e inovação é de interesse nacional. “É um capítulo de política de Estado e não de governo. Olhamos isso com a perspectiva de São Paulo, nossa base, mas como uma questão do país, que nos cabe cooperar e ajudar”, disse.

PESQUISA FAPESP 193 | 13


Tecnociência Cepas mais virulentas de HIV

Conversor de textos para Libras

A presença de variedades

formas do vírus

mais agressivas do HIV-1,

(Plos One, 26 de janeiro).

que normalmente

O estudo acompanhou

costumam apenas

72 pessoas da capital

aparecer nos estágios

paulista por até 78

mais avançados da Aids,

semanas após terem

pode estar se tornando

recebido a notícia de

mais frequente já entre

que eram soropositivas

pacientes recém-

e constatou que 12

-infectados com o vírus

pacientes carregavam

na cidade de São Paulo

a forma mais patogênica

e ser a responsável pela

do HIV-1. Nesse grupo de

progressão mais

indivíduos, a contagem

acelerada da doença

de células de defesa

nesses indivíduos. De

atingiu níveis abaixo de

acordo com um estudo

um patamar desejável

feito por pesquisadores

com maior frequência

da Universidade Federal

estatística do que nos

de São Paulo (Unifesp)

demais indivíduos, cujo

Pessoas surdas poderão

tridimensional, que

e da Universidade de

vírus se liga a outro

ter mais acesso a

representa uma figura

São Paulo (USP),

receptor químico dos

informações com um

humana e articula

pessoas recentemente

linfócitos T do tipo CD4,

novo sistema de

os sinais da Libras”,

contaminadas por cepas

o CCR5. Os cientistas não

transcrição de textos

explica o professor José

do vírus que se conectam

sabem dizer com certeza

digitalizados em língua

Mario De Martino, da

ao receptor CXCR4 dos

se o aparecimento

de sinais por meio de

Faculdade de Engenharia

linfócitos T do tipo CD4,

precoce de cepas mais

um avatar. O sistema de

Elétrica e de Computação

uma importante célula

patogênicas de HIV-1

transcrição fonético-

da Unicamp, que

de defesa do organismo,

é causa ou consequência

-fonológico desenvolvido

coordenou o projeto em

tendiam a apresentar

da baixa na imunidade

na Universidade Estadual

colaboração com os

precocemente um maior

nos pacientes,

de Campinas (Unicamp)

professores Leland

declínio do sistema

mas têm indícios

permite que o texto

McCleary e Evani Viotti,

imunológico do que

significativos de que a

digital obtido pelo

da Faculdade de

as que tinham sido

primeira hipótese parece

usuário no computador

Filosofia, Letras e

infectadas por outras

fazer mais sentido.

ou ainda recebido pela

Ciências Humanas da

internet ou celular possa

Universidade de São

ser transcrito na forma

Paulo (USP), e do

de sinais pelo sistema

professor Plínio Barbosa,

Língua Brasileira de

do Instituto de Estudos

Sinais (Libras).

da Linguagem (IEL) da

“A proposta desse

Unicamp. A patente do

trabalho é oferecer um

sistema foi depositada

sistema de transcrição

no Brasil e, segundo

para a reprodução

Martino, as empresas

computacional e em

que poderiam se

tempo real de conteúdo

interessar nessa

por meio de um agente

tecnologia seriam as

virtual sinalizador,

de celulares, TV Digital

em um modelo

e portais da internet.

14 | março DE 2012

Vírus da Aids: variedades mais agressivas reduzem precocemente a imunidade

Min henismo digna moloreet digna commoloreet digna consectet adio conse


Impressora em três dimensões Uma impressora que

Pontifícia Universidade

experimentos com robôs,

produz peças de plástico

Católica do Rio Grande

em empresas ou

em três dimensões (3D)

do Sul (PUC-RS), em Porto

universidades. O software

foi apresentada em

Alegre. A ideia do projeto

para design das peças e

fevereiro no evento

é criar um equipamento

controle do equipamento

tecnológico Campus

simples de usar, de baixo

é livre. O idealizador do

Party como a primeira

custo (R$ 4 mil), que

projeto e fundador da

projetada e desenvolvida

possa moldar e produzir

empresa é o estudante

no Brasil. A novidade

peças de polímeros

Rodrigo Krug, do curso

é da empresa Cliever,

camada por camada.

de engenharia de controle

instalada na Incubadora

É indicada para a

e automação da PUC-RS.

de Empresas de Base

confecção de protótipos

As vendas devem começar

Tecnológica (Raiar) da

de vários tipos, como

em maio deste ano.

fotos  1. C. Goldsmith / CDC  2. Lola Group 3. Mitchell et al, Nature  ilustraçãO  daniel bueno

Carro de corrida elétrico O Lola-Drayson B12/69

nanofosfato, 100 vezes

EV, um carro de corrida

menores que as

sem ruído de motor

existentes nas baterias

e com emissão zero de

usuais dos veículos. As

poluentes, já está quase

baterias permitem maior

pronto para participar

rapidez no uso da

da primeira competição

eletricidade e na recarga.

de carros elétricos que

O carro também terá um

deve ocorrer em 2013, a

material compósito de

Fórmula E, promovida pela

fibras de carbono e

Federação Internacional

polímeros, que faz parte

de Automobilismo (FIA).

da carroceria, capaz

O veículo é uma parceria

de estocar e fornecer

das empresas inglesas

energia. O abastecimento

Lola e Drayson, da área

de eletricidade poderá ser

de automobilismo de

feito durante a corrida

competição. O protótipo

com carregamento

reúne tecnologias

indutivo sem fios, com

avançadas como os três

sensores nos carros e

grupos de baterias de lítio

transmissores ao longo

produzidas com células

da pista. O Lola-Drayson

de partículas de

vai atingir 320 km/h.

Lola-Drayson: baterias com nanotecnologia e recarga na pista

Ilustração da Amásia: modelo prevê união das Américas e da Ásia no polo Norte

Amásia, o futuro supercontinente A disposição dos grandes blocos de terra sobre o globo será radicalmente distinta da atual se as previsões de um novo estudo da Universidade Yale se concretizarem daqui a cerca de 100 milhões de anos (Nature, 9 de fevereiro). A América do Sul vai cruzar a linha do equador e se fundir com a América do Norte, fechando o mar do Caribe e o oceano Ártico. Essa nova América unificada vai se juntar à Ásia perto do polo Norte e dar origem ao próximo supercontinente: a Amásia, um nome não muito sonoro em português. De acordo com o trabalho, a Austrália também vai migrar para o norte e encostar na Ásia. O modelo foi defendido pelo geofísico Ross Mitchell, da universidade americana, que acredita ter descoberto o mecanismo responsável pela formação dos supercontinentes. Segundo uma análise de dados sobre o magnetismo no passado remoto feita pelo pesquisador, um supercontinente se origina a intervalos de 300-500 milhões de anos num ponto da Terra que forma um ângulo de aproximadamente 90 graus com o centro do supercontinente que o antecedeu. Se vier a existir mesmo, a Amásia será o sucessor do supercontinente Pangea.

PESQUISA FAPESP 193 | 15


Odor sinaliza o caminho até as flores Abelhas que jamais deixaram a colmeia podem aprender a encontrar as plantas ricas em néctar e pólen só pelo odor carregado pelo vento ou trazido por outras abelhas para a colônia. Imaginava-se que isso ocorresse, mas faltava demonstrar. Agora a zoóloga brasileira Ana Carolina Roselino, da Universidade Estadual Paulista (Unesp), campus de Rio Claro, e o austríaco

Michael Hrncir, da Universidade Federal Rural do Semiárido, no Rio Grande do Norte, comprovaram essa hipótese em um teste com uruçus (Melipona scutellaris), abelhas-sem-ferrão nativas da mata atlântica. Eles primeiro expuseram um grupo de abelhas a um fluxo de ar contendo geraniol e outro ao ar com linalol. Depois as colocaram em uma caixa de acrílico com dois

potes de água açucarada: um com aroma de geraniol e outro de linalol. Cerca de 70% das abelhas expostas ao geraniol se alimentaram do recipiente com esse composto. Proporção semelhante do outro grupo preferiu o pote com linalool. Abelhas sem familiaridade com os aromas escolheram a comida de modo aleatório (Animal Behavior, março 2012).

Eco de uma erupção estelar

1

Cruzamento sem semáforo

Abelha-uruçu: odor carregado pelo vento leva ao néctar

A natureza da série de

dessa luz revelou que as

grandes erupções que

erupções da Eta Carinae

ocorreram entre 1838

atingiram a temperatura

e 1858 na Eta Carinae,

de 5 mil Kelvin em vez

um dos maiores sistemas

dos anteriormente

da Via Láctea formado

previstos 7 mil Kelvin e

por duas estrelas

ejetou cerca de 10% da

gigantes, parece ter

massa do sistema a

sido finalmente

velocidades de até mil

compreendida. Uma

quilômetros por

equipe de astrofísicos

segundo. A temperatura

coordenada por Armin

menor indica que o

Rest do Space Telescope

sistema binário não

Atravessar os

gasto com locomoção.

Science Institute de

sofreu uma explosão

cruzamentos de ruas

O modelo foi projetado

Baltimore, Estados

superenergética do tipo

e avenidas sem que

pela equipe do professor

Unidos, conseguiu captar

supernova, mas foi alvo

os veículos parem nos

de ciência da

o eco de parte da luz

de eventos um pouco

semáforos. Uma

computação Peter Stone,

desses eventos que foi

menos potentes. Apesar

possibilidade que

da Universidade do

refletida na poeira

dos novos dados, ainda

certamente traria

Texas, Estados Unidos. O

vizinha às estrelas e

não se sabe por que as

muita economia de

sistema seria gerenciado

demorou mais de um

erupções ocorreram

combustível e de tempo.

por um controlador

século e meio para se

durante aquele período.

Isso talvez possa

virtual de tráfego em que

tornar vísivel aos

“Até agora só

ser possível com o

os sensores dos carros

modernos telescópios

arranhamos a superfície

desenvolvimento de

autônomos reservariam

de hoje. A análise dos

do que os ecos podem

veículos autônomos, sem

espaço, em frações de

comprimentos de onda

revelar”, diz Rest.

motoristas. Um sistema

segundo, para passar no

baseado em algoritmos

cruzamento de forma

de inteligência artificial

coordenada. Mas ainda

testado com pequenos

há o que aprimorar no

protótipos indicou uma

esquema alternativo.

melhora de 169% no

Hoje ele não leva em

fluxo dos carros e

conta a existência de

redução à metade do

ruas com pedestres e

tempo normalmente

carros com motoristas.

16 | março DE 2012

Reflexo da luz das erupções da Eta Carinae: temperaturas de 5 mil Kelvin

2


fotos  1. Michael Hrncir  2. NASA/NOAO/A. REST (STSI) 3. UC Davis  ilustraçãO  daniel bueno

Exercício contra o enfisema Foi sugerido

A doença atinge

recentemente que

cerca de 20% dessa

o exercício físico reduz

população”, afirma uma

o risco de os fumantes

das autoras, Alessandra

sofrerem de enfisema

Choqueta de Toledo, da

pulmonar. Um grupo

Universidade Estadual

internacional,

Paulista (Unesp). Fazer

coordenado por Mílton

exercício também

de Arruda Martins, da

é importante para o

Faculdade de Medicina

processo de reabilitação

da Universidade de São

não medicamentosa

Paulo (FMUSP), realizou

da doença pulmonar.

um estudo com

A atividade física evita a

camundongos, publicado

diminuição na produção

em fevereiro no

de interleucina 10,

European Respiratory

substância anti-

Journal, para confirmar

-inflamatória cujas taxas

essa proteção e ver quais

caem em razão da

são os mecanismos

exposição à fumaça

relacionados.

de cigarro, e também

“Nosso estudo revelou

aumenta a síntese da

que praticar exercício

glutationa peroxidase,

aeróbico regular de

uma enzima

intensidade moderada,

antioxidante. Fazer

durante o próprio

exercício reduz

período em que estiver

o estresse oxidativo

fumando, protege

induzido pelo fumo

a pessoa contra

3

Ilustração de turbinas eólicas verticais em projeto de prédio em San Francisco: geração própria de 7% de energia

Prédio com energia eólica As torres de produção

eólicas verticais. Essas

de eletricidade por meio

estruturas devem suprir

de geradores eólicos são

7% de toda a energia

instaladas em áreas

elétrica do prédio.

e protege contra

abertas, normalmente

O sistema eólico foi

o desenvolvimento

o desenvolvimento

no campo ou próximo ao

desenvolvido por

de enfisema pulmonar.

da doença.

mar, para receber a maior

professores do

quantidade de vento

Departamento de

possível. Mas uma outra

Engenharia Mecânica

abordagem, de uso mais

e Aeroespacial e

urbano, para obter a

de outros centros

energia do vento começa

da Universidade

a ser experimentada em

da Califórnia, em Davis,

edifícios. Um exemplo

que testaram e

dessa tendência é o

aprovaram a novidade

prédio que servirá a San

também em um túnel

Francisco Public Utilities

de vento. As turbinas

Commission,

eólicas verticais se

departamento de San

assemelham a grandes

Francisco, nos Estados

bastões que giram com

Unidos, responsável

a força do vento em

pelos serviços de água

volta de um eixo que

e geração de energia

aciona um gerador.

elétrica de algumas

Sua eficiência

cidades da região. Com

energética, porém,

inauguração prevista

corresponde a um

para setembro deste ano,

terço da eletricidade

o edifício tem uma

produzida em

arquitetura que incorpora

geradores com

uma espécie de asa em

pás circulares em áreas

um dos lados onde estão

mais afastadas do

localizadas as turbinas

centro das cidades.

PESQUISA FAPESP 193 | 17


+20

Rio

Conferência das Nações Unidas sobre Desenvolvimento Sustentável

Quando Participarão chefes de Estado e representantes dos países-membros da ONU

onde Rio de Janeiro

temas

Quadro institucional para o desenvolvimento sustentável Serão discutidas mudanças na estrutura da ONU encarregada do desenvolvimento sustentável. Pode ser criada uma agência especializada em substituição ao Programa das Nações Unidas para o Meio Ambiente

20 | 21 | 22 junho 2012

ECONOMIA VERDE  Para os países ricos, o conceito significa estimular setores econômicos que reduzam emissões de carbono. Para os emergentes, é crescer sem agravar problemas ambientais. Para os pobres, é investir em agricultura sustentável, que gere comida e emprego

Quem

objetivo Atualizar os compromissos dos países com o desenvolvimento sustentável, firmados há 20 anos na Conferência Rio-92, e difundir o conceito de economia verde, que contempla atividades econômicas capazes de acelerar a economia, com baixo impacto ambiental e uso racional de energia

energia  Atualmente, 3 bilhões de pessoas dependem de carvão, madeira e biodigestores para obter energia. A Rio+20 quer metas para ampliar e modernizar a oferta de energia, além de promover a eficiência em seu uso

empregos  Relatório da ONU diz que é possível criar 750 mil empregos verdes por ano no mundo até 2030. São vagas em atividades como energias limpas, uso econômico da biodiversidade e agricultura sustentável

segurança alimentar Agricultura mais sustentável, preços estáveis e estímulo a pequenos produtores seriam um caminho para gerar mais empregos no campo e alimentar os atuais 925 milhões de famintos

desastres naturais 85% das pessoas afetadas por catástrofes entre 2000 e 2009 eram de países asiáticos. A Rio+20 quer ampliar as estratégias para reduzir a vulnerabilidade às mudanças climáticas

cidades sustentáveis  423 cidades vão gerar 45% do crescimento do PIB mundial até 2025. Sua população deve crescer 40% no período. A Rio+20 quer metas de sustentabilidade para evitar o colapso

água  Até 2050, 25% da população do planeta viverá em um país afetado por escassez de água potável. A Rio+20 buscará reduzir o desperdício e a poluição da água

oceanos  A pesca hoje provê 15% da proteína animal consumida por 3 bilhões de pessoas. Serão discutidas medidas para garantir o uso sustentável dos oceanos e combater a pesca predatória

Fonte rio+20

questões críticas


capa

A voz dos cientistas na Rio+20

biodiversidade

bioenergia

clima

Como a pesquisa brasileira pode contribuir para as decisões da Conferência sobre Desenvolvimento Sustentável texto

Fabrício Marques 

Infográfico

Laura Daviña

P

esquisadores do estado de São Paulo começam a se mobilizar para influenciar os debates da Rio+20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, que trará chefes de Estado e representantes de centenas de países ao Rio de Janeiro entre os dias 20 e 22 de junho. Cientistas dos campos da biodiversidade, das energias de fontes renováveis e das mudanças climáticas, envolvidos em projetos de pesquisa apoiados pela FAPESP, reúnem-se num workshop em São Paulo, nos dias 6 e 7 de março, para discutir tópicos que estarão em pauta durante a Rio+20 sob a perspectiva das pesquisas mais avançadas realizadas no país. A Rio+20 busca atualizar os compromissos dos países com o desenvolvimento sustentável, firmados na histórica Conferência Rio-92, há 20 anos – e, como novidade principal, propõe avançar no conceito de economia verde, conjunto de estratégias voltadas a movimentar a economia com impacto ambiental reduzido, que se baseia no avanço das fontes renováveis de energia, no consumo eficiente da energia e dos recursos naturais e no uso sustentável dos serviços e dos produtos da biodiversidade. No final do workshop serão apresentados os resultados de um questionário, encaminhado a todos os pesquisadores com projetos apoiados pelos três programas da FAPESP, com suas

inovação

PESQUISA FAPESP 193 | 19


Contribuição de São Paulo Tópicos em que a pesquisa das instituições de São Paulo pode inspirar as discussões da Rio+20 Bioenergia  Um cardápio de pesquisas para melhorar a produtividade do etanol e reduzir o impacto ambiental da energia de biomassa pode contribuir com a meta de dobrar o percentual de energia de fontes renováveis no mundo até 2030 Biodiversidade  Experiência no mapeamento da biodiversidade paulista e na utilização desses conhecimentos para orientar a legislação ambiental do estado pode ser útil na definição de indicadores e de políticas para a preservação Mudanças Climáticas Monitoramento de queimadas na Amazônia pelo Instituto Nacional de Pesquisas Espaciais (Inpe) e estudos regionais sobre a vulnerabilidade às mudanças climáticas podem apontar caminhos para questões-chave da conferência

opiniões acerca dos temas da Rio+20. “Esse documento será encaminhado ao comitê da conferência como uma contribuição da ciência paulista ao debate”, diz Glaucia Souza, professora do Instituto de Química da USP e membro da coordenação do Programa FAPESP de Pesquisa em Bioenergia (Bioen). O workshop será a primeira ocasião em que os pesquisadores de três grandes programas de pesquisa da FAPESP, o Bioen, o da biodiversidade paulista (Biota) e o de Mudanças Climáticas Globais (PFPMCG), participam de um evento conjunto para discutir as interfaces de suas pesquisas. a vez da bioenergia

O engajamento das universidades e institutos de pesquisa de São Paulo na Rio+20 é uma consequência natural do trabalho que vêm desenvolvendo. “Com apoio da FAPESP, pesquisadores de diversas disciplinas têm avançado em estudos que abordam os pilares da sustentabilidade e são questões-chave para a conferência, como a proteção da biodiversidade, o impacto das mudanças climáticas globais e a sustentabilidade da agricultura”, diz Reynaldo Victoria, professor do Centro de Energia Nuclear na Agricultura (Cena), do campus Luiz de Queiroz da Universidade de São Paulo em Piracicaba, que é coordenador executivo do PFPMCG. O programa foi criado em 2008 e já apoia mais de 50 projetos de pesquisa em temas que envolvem as ciências naturais, biológicas e sociais e abrangem desde os efeitos do aquecimento global nas chuvas, na distribuição de gases na atmosfera, até o impacto das queimadas 20 | março DE 2012

e a influência de práticas de manejo agrícola nas emissões de gás carbônico oriundas do solo em plantações de cana-de-açúcar, ou a vulnerabilidade de municípios do litoral norte de São Paulo à mudança do clima, entre outros. Reynaldo Victoria destaca a ambição do PFPMCG de criar um modelo climático brasileiro, um sistema computacional capaz de fazer simulações sofisticadas sobre fenômenos do clima. “Para a ciência abastecer a sociedade com informações fidedignas é essencial termos um modelo que não seja apenas um recorte dos que existem em outros países, mas que contemple características e dados regionalizados”, diz o pesquisador. “A compra do novo supercomputador do Inpe, patrocinada pela FAPESP e pelo Ministério da Ciência e Tecnologia, é importante para atingirmos essa meta. O investimento em projetos de pesquisa em várias regiões, como a Amazônia, o Pantanal e o Atlântico Sul, já está gerando dados para abastecer esse modelo”, diz Reynaldo Victoria. Há incertezas sobre o futuro da Amazônia, observa o pesquisador, que a ciência ainda não conseguiu resolver e interessam ao mundo inteiro. “Existem estudos apontando o risco de savanização da floresta e outros que sugerem o contrário. Também há divergências sobre o volume de biomassa que a Amazônia abriga. Estamos tentando responder perguntas desse tipo.” Outra contribuição com fôlego para fertilizar os debates da Rio+20 vincula-se à produção sustentável de biocombustíveis. “A FAPESP tem apoiado pesquisas para aumentar a produção de etanol por hectare de cana. Hoje o desempenho é de 75 toneladas por hectare, mas estudos recentes mostram que o potencial é de mais de 300 toneladas por hectare e a meta dos pesquisadores é fazer crescer tremendamente a produção sem aumentar a área agrícola e competir com a produção de alimentos”, afirma Reynaldo Victoria, referindo-se a um dos estudos feitos pelo Bioen sobre o impacto do melhoramento genético e de novas tecnologias na produção brasileira. O físico José Goldemberg, reitor da USP entre 1986 e 1990 e secretário Especial do Meio Ambiente quando o Brasil sediou a Rio-92, acredita que a conferência poderá trazer avanços no compromisso dos países em adotar fontes renováveis de energia. “Há um artigo no documento preliminar da conferência interessante para o Brasil. Ele propõe dobrar o percentual de energia de fontes renováveis no mundo até 2030. Pouca gente fala, mas a biomassa já oferece mais energia no mundo do que as usinas nucleares. O exemplo do etanol brasileiro é inspirador. É possível multiplicar por 10 a produção atual sem prejudicar a produção de alimentos”, diz Goldemberg, que fará uma conferência no workshop sobre o tema.


ambém é forte a vocação dos pesquisadores do programa Biota-FAPESP, que desde 1999 promove estudos sobre a biodiversidade do território paulista, para contribuir com a conferência do Rio. É reconhecida, por exemplo, a capacidade do Biota de converter conhecimento em políticas públicas – dados científicos acumulados pelo programa passaram a orientar

a legislação que regula a autorização de corte e de supressão da vegetação nativa em território paulista. A experiência de produzir inventários sobre a biodiversidade e disponibilizar a informação em bancos de dados públicos também pode ser importante. Carlos Joly, professor da Universidade Estadual de Campinas (Unicamp), coordenador do Biota-FAPESP e diretor de Pesquisas e Programas Temáticos do Ministério da Ciência, Tecnologia e Inovação (MCTI), ressalta outros avanços brasileiros que tiveram o impulso da pesquisa científica. “Além de toda a nossa tecnologia em produção de etanol, que reduziu a dependência de combustíveis fósseis e hoje é paradigma até para caminhões e ônibus no país, também temos avançado em biodiesel, num modelo que pode ser utilizado em outras re­giões, como a África e a América Central. Temos exemplos a oferecer na gestão de resíduos: embora ainda sejam poucos, dispomos de lixões que se transformaram em áreas de produção de gás. É verdade que desperdiçamos gás em áreas de exploração de petróleo. O impacto da queima do gás pelo flare das plataformas é alto e não temos tecnologia para resolver isso”, exemplifica. O workshop dos três programas da FAPESP terá a participação de diplomatas, autoridades e de dois cientistas estrangeiros. O biólogo Edward O. Wilson, da Universidade Harvard, um dos pioneiros a alertar sobre a extinção em massa de espécies no século XX, fará uma videoconferência. O biólogo Thomas Lovejoy, da Universidade

barreiras tarifárias Há um temor de que os parâmetros sobre o que é a economia verde sirvam de argumento para manobras protecionistas dos países ricos contra produtos dos emergentes

energia limpa Está na mesa a proposta de dobrar o atual percentual de energia de fontes renováveis no mundo até 2030. Se for aceita, dará mais impulso à energia de biomassa, solar e eólica

De acordo com Glaucia Souza, do programa Bioen, uma das cinco divisões do programa é especialmente talhada para contribuir com a Rio+20, a que trata dos impactos sociais e econômicos de uma sociedade baseada em energia de biomassa. “Temos grupos de pesquisadores estudando modelos econômicos capazes de avaliar as mudanças de uso da terra causadas pela produção em larga escala de biocombustíveis. Também há estudos sobre os gargalos econômicos da produção de biocombustíveis, mapeamentos agroecológicos e impacto na biodiversidade, para citar alguns exemplos”, diz ela. Conhecimento novo à parte, ela destaca o potencial dos biocombustíveis no combate à pobreza, um dos motes da Rio+20. “A cana-de-açúcar contribui para o desenvolvimento rural, mas a agricultura ainda reverte pouco lucro para os produtores. A produção de biocombustíveis pode agregar valor ao agronegócio, permitindo, por exemplo, que o setor gere sua própria energia e venda o excedente, contribuindo para o desenvolvimento regional e o combate à pobreza”, diz.

T em jogo

reforço na estrutura A Europa quer uma agência de meio ambiente. Países em desenvolvimento, como o Brasil, acham melhor reforçar a estrutura já existente sobre desenvolvimento sustentável

Adoção de parâmetros A escolha de indicadores e medidas que regulem metas para o desenvolvimento sustentável é questão fundamental. Se sair um compromisso, os avanços serão mais rápidos

tecnologias verdes Países em desenvolvimento querem mecanismos para a transferência de tecnologias criadas pela economia verde. Os países ricos querem garantir proteção à propriedade intelectual

PESQUISA FAPESP 193 | 21


As posições dos países China

Uma reunião preparatória em Nova York, em dezembro, expôs as visões divergentes

Estados Unidos 

A ênfase é tornar a erradicação da pobreza o fator-chave na formulação de políticas de economia verde, mas evitando critérios uniformes e respeitando o nível e a capacidade de desenvolvimento de cada país Índia

Querem que o documento final seja conciso e tenha um compêndio de compromissos voluntários. O argumento é que, dessa forma, seria possível obter um documento final mais ousado, embora sem metas obrigatórias

Quer apoio financeiro à economia verde, garantia de transferência de novas tecnologias e um ambiente internacional orientado pelo desenvolvimento do comércio, sem riscos de protecionismo “verde”

Brasil 

África

União Europeia

O Brasil quer que a Rio+20 tenha metas de desenvolvimento sustentável, maneiras de medir este desempenho e um Conselho de Desenvolvimento Sustentável forte dentro da ONU

Tem interesse em temas como produtividade da agricultura e segurança alimentar, que incluem o reforço de medidas de adaptação e mitigação para proteger florestas, água, ecossistemas frágeis e a biodiversidade

Defende que a conferência tenha como foco temas ambientais. Mobiliza-se pela criação de uma agência especializada da ONU para o meio ambiente. Propõe um mapa da economia verde e ações em nível internacional

George Mason, vai falar da ciência da biodiversidade no contexto da Rio+20 – foi ele, aliás, quem cunhou o termo biodiversidade nos anos 1980 (ver Pesquisa FAPESP nº 171). O workshop é o ponto de partida da articulação dos cientistas, que terão outras oportunidades para se manifestar até a Rio+20. Ainda em março, acontece em Londres a Conferência Planet Under Pressure, que vai reunir cientistas, empresários, autoridades e representantes de organizações não governamentais para fornecer subsídios para a Rio+20. Dos 6,8 mil pesquisadores que submeteram trabalhos ao comitê científico do evento, 40% deles são do mundo em desenvolvimento. O Brasil contribuiu com 343 trabalhos. No bloco dos chamados Brics, ficou atrás da Índia (531 trabalhos), mas superou a China (123), a África do Sul (63) e a Rússia (50). O Reino Unido lidera a lista, com 907 trabalhos. “Entre os trabalhos brasileiros aceitos, há vários trabalhos financiados pela FAPESP no campo das energias de fontes renováveis, da dinâmica socioambiental, do clima e da meteorologia”, diz Patrícia Pinho, pesquisadora do Inpe e coordenadora científica do escritório do Programa Internacional Biosfera-Geosfera (IGBP), um dos organizadores da conferência londrina. Durante o Planet Under Pressure, o Belmont Forum, grupo de alto nível que reúne os principais financiadores da pesquisa sobre as mudanças globais no mundo, lançará uma chamada de propostas para pesquisadores de várias nacionalidades e disciplinas em dois temas-chave: segurança hídrica e vulnerabilidade costeira. 22 | março DE 2012

“Pesquisadores paulistas poderão participar da chamada internacional”, diz Reynaldo Victoria. “A FAPESP, que integra o Belmont Forum, vai investir € 2 milhões nessa chamada, a serem aplicados em estudos feitos no país”, afirma. As negociações que vão anteceder a Rio+20 terão um papel decisivo. A reunião de cúpula será precedida pela última conferência preparatória, entre os dias 13 e 15 de junho. Em seguida, do dia 16 ao 19, haverá um even“A Rio+20 é to organizado pelo Ministério das oportunidade Relações Exteriores, os Diálogos sobre Desenvolvimento Sustenpara estadistas tável. Ao todo, a conferência e as atividades preparatórias levarão assumirem 10 dias, um pouco menos do que os 12 dias da programação da Rio-92, compromissos que ocorreu de 3 a 14 de junho de com o futuro 1992. “Por ser rara e ambiciosa, podem sair da conferência coisas que, do planeta”, diz no momento em que acontecem, a gente não se dá conta do quanto são Carlos Nobre importantes”, disse ao jornal Valor Econômico o embaixador André Corrêa do Lago, negociador-chefe do Brasil para a Rio+20. “Mas essas conferências, ao trabalharem com o longo prazo, também têm um enorme grau de incerteza. Existem processos que param no meio e outros que inspiram toda uma geração.” A Rio-92 gerou uma série de compromissos que moldaram as negociações internacionais desde


então, como as convenções do clima e da biodiversidade, além da Agenda 21 e dos Princípios do Rio, instrumentos que ajudaram a organizar a ação de governos, empresas e organizações não governamentais na busca de solução de problemas ambientais. Já o escopo da Rio+20 é mais restrito. Ela deverá reafirmar princípios mas, como novidade, poderá trazer apenas uma reforma na estrutura das Nações Unidas, criando uma agência especializada em meio ambiente em substituição ao Programa das Nações Unidas para o Meio Ambiente (Pnuma) – mesmo assim, não há consenso sobre isso. Os países europeus e alguns africanos defendem a criação da agência. Estados Unidos são contra. “O Brasil tem revelado certa relutância, mais por sustentar que a reunião deveria apoiar-se em três grandes pilares, o ambiental, o econômico e o social, julgando assim que a organização reforçaria apenas o primeiro deles”, afirma o embaixador e ex-ministro do Meio Ambiente Rubens Ricupero.

Imago/Zuma  Press/Glowimages

boas intenções

A força da Rio+20 está em reunir chefes de Estado, e não apenas seus representantes, para discutir grandes questões. “Não é uma conferência de diplomatas e ministros defendendo os interesses de seus países, como acontece nas conferências das partes do clima e da biodiversidade que ocorrem todos os anos e acumulam avanços lentos. É uma janela de oportunidade para os estadistas, que poderão assumir compromissos gerais com o futuro do planeta”, diz Carlos Nobre, climatologista do Inpe, que é secretário de Políticas e Programas de Pesquisa e Desenvolvimento do MCTI e membro da coordenação do Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais. O primeiro rascunho de documento da conferência, divulgado há dois meses, tem 128 artigos e é pródigo em boas intenções e exortações a práticas sustentáveis, mas vem sendo criticado por propor pouca coisa prática. “A questão não é a conferência, mas o day after. É preciso gerar compromissos que façam a conferência resultar em ações”, diz o físico José Goldemberg. Produzido por uma comissão da ONU envolvendo Estados-membros, agências internacionais, organizações não governamentais e grupos políticos, o chamado “documento zero” reúne compromissos genéricos, sem delimitar metas – mas deve ser substituído por uma nova versão em março, depois de incorporar novas sugestões dos países. “Do jeito como está, o documento se parece com o da Rio+10, que ocorreu em Johanesburgo em 2002, e teve impacto baixo fora dos meios diplomáticos”, afirma Carlos Joly. As chances de sucesso da conferência vão depender, em boa medida, da capacidade das reu-

niões preparatórias de obter consenso em torno de indicadores utilizados para delimitar metas. “A conferência pode se tornar uma reunião significativa se passar da retórica para as métricas”, diz Jacques Marcovitch, reitor da Universidade de São Paulo entre 1997 e 2001. Ele compara o desafio da Rio+20 com o enfrentado em 2000 pela ONU ao definir os chamados “objetivos do milênio”, conjunto de oito metas assumidas por 191 países signatários no campo da erradicação da pobreza, do acesso à educação, do combate à doenças, entre outros. “Depois de muito tempo de indecisão, chegou-se a um consenso sobre as métricas que seriam utilizadas e se conseguiu avançar para ampliar as bases do desenvolvimento humano”, afirma Marcovitch. Entre as métricas, ele destaca indicadores de eficiência energética, como o uso de energia por percentual de crescimento econômico, o uso de energia pelo setor privado pelo resultado obtido, o uso de água, a geração de dejetos. “Me refiro a um conjunto de indicadores que relacionem insumos a resultados”, afirma. Marcovitch coordenou o estudo Economia da mudança do clima no Brasil: custos e oportunidades, feito por um consórcio de instituições, que identificou as principais vulnerabilidades da economia e da sociedade brasileira em relação às mudanças climáticas. Ele fará uma palestra no workshop relacionando o estudo com os desafios da Rio+20. Carlos Joly, coordenador do Biota, também destaca a necessidade de estabelecer métricas, que no campo da biodiversidade deveriam referir-se a um patamar aceitável de áreas protegidas, como parques e reservas, de hábitats

Deslizamento em Nova Friburgo (RJ), em 2011: Rio+20 terá estratégias para reduzir vulnerabilidade às mudanças climáticas

PESQUISA FAPESP 193 | 23


Queimada na Amazônia, em 2007: redução nos índices de desmatamento ajudou o Brasil a sediar a conferência

preservados, de conectividade nos hábitats fragmentados e de proteção a espécies endêmicas, entre outras. O documento zero fala genericamente sobre a criação de indicadores e delega a um grupo de trabalho a tarefa de defini-los, nos próximos três anos.

S

egundo Joly, o próprio conceito de economia verde precisaria ser mais bem definido pela conferência. “Falta uma definição mais redonda e mais exata do que é a economia verde e o que ela abrange, pois esse é um dos temas principais”, diz. O Pnuma, principal autoridade global sobre meio ambiente da ONU, define economia verde como “uma economia que resulta em melhoria do bem-estar da humanidade e igualdade social, ao mesmo tempo que reduz significativamente riscos ambientais e escassez ecológica. Em outras palavras, uma economia verde pode ser considerada como tendo baixa emissão de carbono, é eficiente em seu uso de recursos e socialmente inclusiva”. Não substituiria o conceito de desenvolvimento sustentável, mas seria um caminho para atingi-lo mais adiante. Há, porém, ceticismo sobre o potencial da economia verde de garantir um futuro sustentável. “Inovações para melhorar a eficiência no uso dos recursos são fundamentais. Mas isso já está ocorrendo. E, apesar dessas inovações e dos avanços que elas propiciaram, o uso de recursos e a pressão sobre os ecossistemas não diminuíram, mas aumentaram”, diz Ricardo Abramovay, professor da Faculdade de Economia e Administração (FEA), da USP. Ele observa que vem ocorrendo um descasamento entre o crescimento da produção e o uso de materiais e energia. “Em 2002, cada unidade do PIB mundial foi produzida, em média,

24 | março DE 2012

Linha do tempo A Conferência das Nações Unidas sobre o Meio Ambiente Humano, realizada em Estocolmo, Suécia, trouxe a temática ambiental para a agenda política internacional

Conferência de Estocolmo

1972

Photoshot/Zuma  Press/Glowimages

com 26% menos de recursos materiais que em 1980”, diz. O ganho de eficiência, no entanto, foi anulado pelo crescimento do PIB mundial. “Apesar do declínio relativo, o consumo absoluto de materiais aumentou 36%. Até 2020, a tendência é que o aumento na produtividade por unidade de produto seja contrabalançado por um consumo quase 50% maior de materiais, com um impacto devastador sobre o clima e sobre os ecossistemas”, afirma. “E na raiz deste aumento de consumo está a desigualdade, tema até aqui ausente na Rio+20. Não há progresso técnico que consiga fechar as contas enquanto houver tanta desigualdade no acesso e no consumo de recursos.” A elasticidade do conceito dá margem a divergências entre o mundo desenvolvido e o em desenvolvimento. A questão da transferência de tecnologia é um dos pontos de discordância. “A economia verde depende da concepção de novas tecnologias. Os países em desenvolvimento querem mecanismos claros que permitam o compartilhamento ou transferência dessas tecnologias, mas esse não é o foco dos países ricos, mais preocupados com questões ambientais e com a proteção à propriedade intelectual”, diz Carlos Joly. “Os países pobres receiam que a definição de parâmetros sobre a economia verde sirva de argumento para manobras protecionistas, com os países ricos dizendo: não vou comprar seu produto porque sua economia não é verde”, explica. O documento zero propõe que a economia verde não seja usada para levantar barreiras comerciais. Não há garantias de que os cientistas conseguirão exercer influência decisiva nos rumos da conferência. Apesar do trabalho do Painel Intergovernamental das Mudanças Climáticas, assegurando o perigo do aquecimento global, a


última conferência do clima da ONU, realizada realizada em 2002, foi sediada em Johanesburem Durban, optou por adiar a implementação go, não aqui. Ele adverte que a ciência ainda não de medidas já definidas como necessárias (ver foi capaz de apontar um caminho para a AmazôPesquisa FAPESP nº 191). “Num momento de nia que ajude a agregar a riqueza dos recursos crise econômica, as autoridades tendem a cui- naturais de forma harmônica e permita criar dar dos problemas sociais mais graves e deixar oportunidades de renda a partir dos serviços o resto para depois”, diz José Goldemberg. Car- do ecossistema. No campo da agricultura, los Nobre, do Inpe, lembra das observa Nobre, a economia dificuldades do experimento verde também exigirá muLBA, um programa de pesquidanças profundas, capazes sas na Amazônia, de reverter “Em tempos de de torná-la mais racional no seus resultados em políticas. crise econômica, uso de água e energia. “Para“Passamos a refletir sobre as doxalmente, o Brasil poderia razões pelas quais a ciência geas autoridades atingir com certa facilidade a rada não conseguia influenciar agricultura sustentável, mas a redução do desmatamento. tendem a deixar precisa querer”, diz, citando o E, depois, quando o desmataexemplo do açaí, fruta amazômento caiu, não conseguimos a questão nica que se tornou um produto concluir se era resultado do ambiental para global nos últimos cinco anos, programa ou do trabalho de cujo comércio hoje envolve alguns cientistas”, afirma. O depois”, diz José mais dinheiro do que a madeiembaixador Rubens Ricupero ra. “Não houve uma estratégia vê grande influência dos cienGoldemberg para isso. O açaí virou um nitistas no debate ambiental. “O cho de mercado mundial, mas tema só entrou na agenda internacional e passou a fazer parte da consciência a ciência não fez nada para que isso acontecesse.” das pessoas no começo dos anos 1970 e isso se Nobre ressalta que o país tem o maior potencial deve quase exclusivamente ao resultado da ação do mundo em biomassa, em energia eólica e solar. Com isso, poderia facilmente transformar seu dos cientistas”, afirma. modelo de uso de energia, o que outros países têm mais dificuldade de fazer. “Estamos mais perto, Caminho para a amazônia Segundo Carlos Nobre, uma das contribuições mas outros países saíram na frente na transição. principais da ciência brasileira envolve a capa- Estão se mobilizando mais”, afirma. “Não podecidade de monitorar o desmatamento por meio mos dormir em berço esplêndido. Quem sabe se de satélites, ainda que se trate de um progres- em 2030 não nos tornemos o país tropical mais so mais técnico do que científico. “A queda do sustentável e mais limpo. Para que isso ocorra desmatamento ajudou a credenciar o Brasil a até lá, a comunidade científica tem de acreditar sediar a conferência”, lembrando que a Rio+10, nisso agora.” n

Relatório da ONU propõe o conceito de desenvolvimento sustentável, capaz de satisfazer necessidades da geração atual sem comprometer as futuras

A Rio-92 lançou documentos que passaram a nortear o debate ambiental: 1 Convenção sobre Mudança do Clima 2 Convenção sobre Diversidade Biológica 3 Declaração de Princípios sobre Florestas 4 Declaração do Rio sobre Meio Ambiente e Desenvolvimento 5 Agenda 21

A Cúpula sobre Desenvolvimento Sustentável, em Johanesburgo, África do Sul, reafirmou metas da Rio-92 – e incluiu no debate as energias limpas e responsabilidade das empresas

A Conferência Rio+20 aposta na economia verde, capaz de gerar empregos com baixo impacto no meio ambiente e uso eficiente dos recursos naturais

Criação do Relatório Nosso Futuro Comum

Conferência Rio-92

Conferência Rio+10

Conferência Rio+20

1987

1992

2002

2012 PESQUISA FAPESP 193 | 25


entrevista  Hernan Chaimovich

Duas vezes bioquímico O professor da USP relembra sua trajetória, de Santiago do Chile a São Paulo, e diz que nenhum país integra culturas como o Brasil

N

um artigo publicado em 2008 sobre os primeiros tempos de sua trajetória acadêmica, Hernan Chaimovich, professor aposentado do Instituto de Química da Universidade de São Paulo (IQ/USP), conta que precisou se tornar bioquímico duas vezes – uma só não foi o bastante. A primeira vez foi em julho de 1962, aos 22 anos, na Universidade do Chile, seu país natal. Filho de um dono de laboratório farmacêutico e de uma dona de casa que se tornaria escritora, Chaimovich ingressou no curso de farmácia, deixando o pai esperançoso de que fosse assumir o negócio da família, mas no meio do percurso sentiu-se seduzido pelo recém-criado curso de bioquímica, liderado por um professor que incutia na mente dos alunos a ambição de ganharem um Prêmio Nobel. Graduado, transferiu-se para os Estados Unidos, onde fez estágios na Universidade da Califórnia em Santa Bárbara, e em Harvard. Voltou ao Chile, agora casado com uma brasileira, e passou a enfrentar a pressão da família da mulher para trabalhar no Brasil. Em 1969 recebeu propostas no Rio e em São Paulo. Optou pela segunda, numa bolsa oferecida pelo então diretor científico da FAPESP, Alberto Carvalho da Silva, para trabalhar no departamento de fisiologia da Faculda26 | março DE 2012

de de Medicina da USP. No início dos anos 1970, Chaimovich tornara-se um dos jovens líderes do Programa Bioq-FAPESP, ao qual se atribui a consolidação da bioquímica no estado de São Paulo, e se transferiu para o IQ, onde ajudou a fundar a pós-graduação. Seu título de bioquímico não valia no Brasil e Chaimovich não fazia parte dos quadros regulares da USP – sua permanência tinha de ser chancelada pelos pares a cada três anos. Em 1979 recorreu a um dispositivo do estatuto que permitia a pesquisadores de notório saber apresentarem teses sem precisar fazer as disciplinas de pós-graduação e obteve, com meses de diferença, os títulos de doutor e depois de livredocente. “Aos 40 anos, me tornei bioquímico pela segunda vez”, diz. Chaimovich desenvolveu várias linhas de pesquisa vinculadas à cinética, estudando as reações químicas com base na velocidade em que elas acontecem. Junto com estudantes e colaboradores contribuiu para a compreensão dos efeitos cinéticos de agregados supramoleculares em química e biologia. Mas também se interessou por política científica e tecnológica – entre os cargos que já desempenhou, destacam-se o de pró-reitor de Pesquisa da USP, vice-presidente da Academia Brasileira de Ciências, diretor da International Council for Science, a ICSU, que agrupa repre-

leo ramos

Fabrício Marques e Neldson Marcolin


PESQUISA FAPESP 193 | 27


sentações nacionais de todos os países e as grandes associações internacionais de ciência. Na FAPESP coordena o programa dos Cepids, os Centros de Pesquisa, Inovação e Difusão. Casado pela segunda vez, pai de três filhos, Hernan Chaimovich, 72 anos, concedeu a entrevista a seguir: Como é que as suas origens influenciaram na escolha que o senhor fez pela ciência? Tive um tio médico que fazia um pouco de pesquisa na época e havia meu pai, que tinha uma farmácia e depois construiu um laboratório farmacêutico. Lembro-me de ter ganho o meu primeiro microscópio aos 8 anos e de ser influenciado por um químico alemão que trabalhou como consultor no laboratório do meu pai. Ele me dava livros de ciência para crianças em alemão, língua que eu não lia, embora os experimentos fossem claros. Então comecei a fazer experimentos cedo, tanto de biologia quanto de química. Isso antes dos 10 anos. Os experimentos foram virando práticos porque comecei a fazer explosivos.

Então seu pai acabou vencendo, correto? O senhor se tornou um cientista e não um escritor... Não tenho certeza. Meu pai queria que eu trabalhasse e fosse dono de laboratório farmacêutico e fugi disso. O importante não é que alguém ganhe, mas o interesse dos pais por se colocar explicitamente. Dizer claramente, “eu gostaria que você fizesse isso por tais e tais razões”. Ou a minha mãe, que em vez de fazer isso, dizia “leia esse livro, depois esse outro”. Ela acompanhava meu percurso. Uma família rica – e eu tento fazer isso com meus filhos – é aquela em que ninguém tem vergonha de dizer “eu gosto de tal coisa e gostaria que você olhasse o meu lado”, de uma forma ou de outra. Sem pressionar, porque daí seria ganha e perde.

monte de prêmios durante meu tempo de faculdade. Sua opção pela pesquisa ocorreu ainda na graduação? A decisão veio no momento em que conheci Osvaldo Cori, um dos meus heróis. Foi ele que criou a carreira de bioquímica na Universidade do Chile. Um pouco antes eu estava indeciso entre ir para medicina ou largar a faculdade. Primeiro porque era fácil ser o melhor aluno e segundo porque não era divertido. Até o Osvaldo decidir criar a bioquímica dentro da universidade. A intenção era formar cientistas para a área químico-biológica no Chile. Quando vi isso e comecei a conversar com as pessoas, percebi que era uma aventura, algo vivo. Decidi ficar e ir para a bioquímica. Cori conhecia bem a bioquímica feita no exterior? Ele teve uma formação muito boa nos Estados Unidos. Era médico, foi com uma bolsa Rockefeller para a Universidade de Tulane e depois trabalhou com dois prêmios Nobel. A ciência dele não foi muito importante. Mas era um professor com uma cultura extraordinária. Acreditava que estava fazendo a coisa mais importante do mundo. Também achava que todos tinham que se esforçar para ganhar um Prêmio Nobel. Viver ao lado de pessoas que acreditam que ciência é estimulante, que temos que estar na fronteira e pretender ganhar um Nobel é outra forma de dizer que não se deve andar para trás. Temos que usar a mesma linguagem que os vencedores do Nobel. E, de fato, o Osvaldo convidava vários ganhadores para dar seminários e almoçar com a gente. Eram pessoas para as quais tínhamos que perguntar – e perguntar agressivamente, porque senão não tinha graça.

Vejo o Brasil como o único país do mundo em que a mistura de culturas é real

O senhor destruiu a garagem da casa... Foi uma das minhas experiências. No colégio fui um aluno relativamente medíocre. Uma das coisas que eu gostava de verdade era química. Tive sorte de estudar em um colégio público que era o melhor do Chile na época. É o Instituto Nacional, com bons laboratórios de química e física. Tinha também professores excelentes. O de filosofia era extraordinário. Um professor de castelhano, espanhol, que depois virou vice-reitor da Universidade do Chile, e um de química que me deixava brincar no laboratório.

Sua mãe era escritora, não é? Ela se tornou escritora muito mais tarde. Mas teve influência, claro. Li todos os escritores russos importantes quando tinha 17 anos e isso vem dela. O fato de minha mãe ter nascido na Rússia é importante para uma série de coisas que vêm depois. Mas não nessa época. 28 | março DE 2012

No colégio o senhor não gostava de algumas disciplinas. E na faculdade? Eu entrei facilmente na faculdade. Na verdade, os alunos do Instituto Nacional passavam no vestibular na frente de qualquer aluno de qualquer outro colégio do Chile porque estavam muito bem preparados. Entrei em química e farmácia na Universidade do Chile e logo no início, em maio, fiquei doente e faltei por um mês. A assistente social da faculdade foi me visitar e disse, “você ficou doente, vai repetir de ano, então faça só algumas matérias, tente se recuperar”. Aquilo me deixou muito zangado. E decidi que iria não só passar de ano, mas estudar todas as matérias. Comecei a gostar disso e ganhei um

Por que o senhor saiu do Chile logo depois de formado? Um cientista australiano muito bom chamado Morrison esteve no laboratório do Osvaldo Cori quando eu estava no quinto ano. Eu já trabalhava com enzima, enzimologia, e passava muito tempo


no laboratório. Minha dúvida naquele tempo era entre duas áreas: enzimologia, ligada ao Osvaldo, e biofísica, ligada ao Mario Luxoro, um biofísico maravilhoso, que hoje deve ter uns 90 anos. Os dois tinham cabeças totalmente diferentes e foram meus professores. Por que escolheu enzimologia? Porque o Cori me contratou quando eu estava no quarto ano e criou-se um vínculo. Pouco depois chegou o Morrison e comecei a fazer cinética [medir a velocidade das reações químicas] enzimática com ele. Me entusiasmei pelo assunto e claramente percebi que cinética sozinha não era tão divertida quanto cinética em mecanismos de reação. Como não conseguia aprender esses mecanismos no Chile, decidi ir para os Estados Unidos logo depois de formado. Por que não foi direto para o doutorado? Por uma razão simples: preconceito da escola de Osvaldo Cori, que não valorizava o doutoramento, ao contrário da escola de Mario Luxoro. O Osvaldo não era doutor, mas médico. Nos Estados Unidos ele trabalhou e publicou artigos com o Fritz Lipmann, por exemplo, prêmio Nobel de Medicina de 1953. E achava que fazer doutoramento não era necessário. Quando fui para a Universidade da Califórnia em Santa Bárbara, fiquei um ano e meio trabalhando com um dos ícones da físico-química orgânica no mundo, que é o Clifford Bunton. Mas depois desse período achei que já tinha aprendido tudo o que podia com ele. Naturalmente, eu estava errado, mas não importa, só tinha 20 e poucos anos na época. Eu queria ir para outro grupo melhor e acabei na Universidade Harvard. Mas até poderia ter feito o doutoramento em Santa Bárbara, tranquilamente. Ocorre que eu me sentia como um pós-doutor porque tinha uma bolsa da Fundação Rockefeller, o que representava muito prestígio.

Tenho mais parentes no Brasil que no Chile, porque meu avô paterno imigrou da Rússia no fim do século XIX para o Chile. Como muitos imigrantes, trabalhou, começou a ganhar dinheiro e trouxe a família. Os dois primeiros irmãos que chegaram a Santiago enfrentaram um terremoto e decidiram sair. Vieram para o Rio, assim como outros irmãos. Comecei a vir para cá com 18 anos e conheci minha primeira mulher num Carnaval. Como foi sua experiência em Harvard? Extremamente exciting. Fiz muito mais amigos lá do que na Califórnia. Ao mesmo tempo, o departamento de química era conhecido por ter um número de suicídios acima da média e um prêmio Nobel por andar. Era um grupo muito

Sua ideia era voltar para o Chile? Eu tinha duas propostas. Uma era fazer o doutoramento e depois trabalhar na Carnegie Mellon University, nos Estados Unidos. A outra era fazer o doutoramento na Inglaterra. Mas na época eu já tinha clareza de que queria voltar para a América Latina. E por que veio parar no Brasil? Por duas razões. A primeira é que minha mulher queria viver aqui. A outra é que o Brasil tem algo diferente para o estrangeiro. Acho que brasileiro, naquela época, não sabia o significado de brain drain [fuga de cérebros]. Brasileiro não emigrava, a menos que fosse expulso do país. Muitos brasileiros saíram daqui na época da ditadura. Mas nenhum deles, me parece, queria sair. É diferente de chileno, argentino etc. Aqui tem brain gain [ganho de cérebros]. Dificilmente um cientista ou alguém de qualquer outra profissão que case com brasileira – e vice-versa – deixa de morar no Brasil. Sempre se traz a mulher ou o marido. Como explica isso? Não tenho explicação, só uma teoria. Vejo o Brasil como o único país do mundo em que a mistura de culturas é real. Vou dar dois exemplos que acho maravilhosos. Não se compreende um mestre-sala de feições japonesas, a menos que se entenda que a capacidade do Brasil de integrar cultura é uma coisa que só existe aqui. Não tem em outro país – e olha que conheço o mundo. A probabilidade de um não argentino ou não chileno ou não colombiano chegar a ocupar as posições que eu ocupei na universidade pública mais importante do país é quase zero. E aqui é normal. A cultura se constrói misturando mesmo. A poetisa chilena Gabriela Mistral, ganhadora do Nobel de Literatura de 1945, morou em Santa Bárbara, na Califórnia. A imigração chilena naquela região era comum também no século XIX. Se você vai à colônia chilena de lá hoje, tem um pessoal que toma vinho tinto, come empanadas e a quinta geração fala mais espanhol que inglês. Onde há algo semelhante no Brasil? É isso que quero dizer quando falo de integração. Aqui a integra-

Minha primeira publicação ocorreu há quase 50 anos e continua sendo citada

Nessa época o senhor estava casado? Já. Com uma brasileira. Depois casei outra vez, com outra brasileira. Vim para cá casar e segui para os Estados Unidos.

competitivo e eu não estava acostumado com esse nível de competição. Peguei um problema muito complicado e quase não consigo resolver. Os primeiros seis meses foram muito difíceis. Tudo melhorou quando dei meu primeiro seminário para o departamento. Escolhi um tema mais complicado ainda, que me obriguei a dominar a tempo, e dei um seminário que tinha três prêmios Nobel sentados na minha frente. Nos primeiros 15 segundos pensei que fosse desmaiar. Depois me soltei. A partir daí fui aceito como igual pelos pós-doutores que tinham que trabalhar sábado e domingo para produzir – a outra opção era ser cuspido do sistema. Saí de lá com um bom paper, citado até hoje.

PESQUISA FAPESP 193 | 29


ção capta valores, não impõe. Acho que o Brasil exerce uma atração especial em razão de a possibilidade de integração cultural ser real e da sensação de o imigrante estar construindo uma cultura. Por que escolheu ficar em São Paulo? Uma das propostas de emprego que recebi veio do Leopoldo de Meis, da Universidade Federal do Rio de Janeiro, que ia para a Alemanha e precisava de alguém que tomasse conta do laboratório. Gosto muito do Leopoldo e a ideia era boa. Só que não ficou muito claro se eu podia ou não ter uma linha independente de pesquisa. Além disso, era um convite de boca e não tinha um contrato para assinar. Certamente ia ter algum dia, mas em São Paulo a proposta era diferente. O Alberto Carvalho da Silva estava interessado em estabelecer uma seção de enzimologia no departamento de fisiologia da Faculdade de Medicina da USP. E ele pediu uma bolsa de pesquisador visitante para mim no fim de 1968. Eu estava no Chile quando telefonei e descobri que o Alberto, então diretor científico da FAPESP, tinha sido cassado pelos militares. Fiquei em dúvida se deveria vir, mas aí o César Timo-Iaria assinou o pedido de bolsa. Cheguei em setembro de 1969. O clima era de enterro, com uma depressão generalizada na universidade. Mas as pessoas do departamento de fisiologia me acolheram com um carinho e um respeito absolutamente incríveis: o César Timo-Iaria, o Gerard Malnic, o Francisco Lacaz, o Mauricio Rocha e Silva e outros. Foram vários sentimentos misturados na época: o respeito individual por mim, o luto pelas cassações e o espaço que me deram. Espaço físico e intelectual. Eu cheguei e já tinha um técnico para trabalhar comigo. Era algo impensável, difícil de conseguir em outros lugares. E comecei a ter alunos muito rápido. Mas, um ano depois, ficou claro que eu não tinha um diálogo suficientemente bom para me manter vivo cientificamente. Decidi ir para o IQ.

Tentei reconhecer meus títulos e foi impossível, mas isso não importava porque o salário não estava ligado a título. Veja, cheguei ao IQ nos anos 1970 e rapidamente fui colocado como responsável pela pós-graduação. Eu dava a primeira disciplina, de enzimologia – a única que havia naquele semestre. Entrei em contato com Francisco Lara e começamos a escrever o Bioq-FAPESP [Programa para o Desenvolvimento da Bioquímica] juntamente com uma comissão que tinha o Carl Peter von Dietrich e Antonio Cechelli de Mattos Paiva. Lara teve a ideia e nós escrevemos. Mas o detalhe foi a grande contribuição do Peter e alguma coisa minha também. É o Brasil, você se integra. Eu tinha chegado há um ano, sem doutoramento, não tinha contrato

do Bioq-FAPESP. Os projetos eram auditados por uma comissão que contava com pelo menos um prêmio Nobel. Foi um carimbo importante. Quando fez finalmente o doutorado? Em 1979. Eu estava com o salário diminuído por causa da inflação, separado, tendo que viajar para o Rio para ver meus filhos. Nesse momento tive que decidir: ficar no Brasil ou sair? Ir para uma empresa privada ou tentar fazer alguma coisa na universidade? Para o Chile, em plena ditadura do Pinochet, eu não voltaria. Meus amigos estavam todos mortos ou exilados. Quase fui para empresa farmacêutica chefiar uma divisão de pesquisas. Os Estados Unidos e a Europa eram possibilidades reais. E outra possibilidade era tentar modificar a minha situação funcional na universidade e conseguir um doutoramento rapidinho. Descobri que no estatuto da USP tinha um artigo que permitia a pessoas de notório saber defender uma tese sem fazer as disciplinas. Não tinha sentido fazer disciplinas depois de ter sido coordenador da pós-graduação do IQ e de ter formado doutores e mestres. Me apresentei contra a vontade de muita gente. Porque tinha que passar por dois terços na congregação e quiçá algumas pessoas me vissem como ameaça. Mas isso é conjectura. Passei por um voto. Consegui também a livre-docência no mesmo ano. Ou seja, em 1979 fiz a tese de doutoramento em abril e a de livre-docência em dezembro. Por sorte, alguns dos meus papers importantes foram publicados nesse intervalo – o regimento da livre-docência diz que tem que ter produção científica no intervalo dos dois títulos. Tentei em seguida me apresentar para o concurso de titular em 1980, mas não obtive os dois terços necessários. Nos anos seguintes me tornei parte do quadro da universidade. Finalmente eu tinha uma posição e aí virei um bioquímico de verdade do ponto de vista brasileiro. Aconteceram muitas outras coisas depois disso. Meu grupo de pesquisa era pequeno, com poucas pessoas, mas muito bom.

O programa Bioq, dos anos 1970, fez com que a bioquímica se estruturasse no país

Como foi descobrir que o senhor não era bioquímico aqui no Brasil? 30 | março DE 2012

na USP e já estava escrevendo um projeto, com outros pesquisadores, que, acredito, fez com que a bioquímica se estruturasse neste país a partir de São Paulo. Isso é muito esquisito quando olhado de outro país e em outro contexto cultural. Por isso eu não me importava em não ter doutoramento. Formei um grupo maravilhoso numa época em que tudo estava dando certo intelectualmente. Algumas das minhas publicações de mais impacto relativo são dessa época, de 1977 a 1982. O conjunto de jovens da mesma geração foi importante. E entre aqueles jovens incluo Dietrich, Walter Colli, [José Carlos de Costa] Maia, que morreu cedo, Rogério Meneghini, Hugo Armelin, Walter Terra... Todos receberam uma bênção


Pequeno quanto? No pico, de oito a 10 pessoas. Tive gente muito boa trabalhando comigo como o Renato Arruda Mortara, professor na Unifesp, o Mário Politi, a Iolanda Cuccovia, agora minha esposa, a Ana Carmona, todos da USP. E vários outros. Em 1984 saiu o número especial do Current Contents, que hoje é Web of Science, com os papers mais importantes da América Latina daquele ano. Numa lista de 10, dois eram meus. Quais eram os temas? A mesma coisa que eu faço hoje. Um era uma parte da dissertação de mestrado da Iolanda, uma análise cinética de uma reação química em micelas, e outro é a primeira descrição de vesículas preparadas com anfifílicos sintéticos de carga negativa. Em 1984 me tornei titular. Além de pesquisa científica, o senhor fez também política científica. Eu já fazia política quando estava no colégio. Minha primeira atividade política no Brasil, oficial, é de 1983, quando fui eleito para a diretoria da Adusp [Associação dos Docentes da USP]. Em 1985 ocupei a posição de chefe de departamento. Depois, em 1990, coordenei, e em parte formulei, o curso de ciências moleculares da USP, que foi um avanço fantástico para a universidade. A ideia foi do Roberto Leal Lobo, quando ele era reitor, e do Erney Plessmann de Camargo, o pró-reitor de Pesquisa. Quem estruturou e coordenou de fato fui eu. Esse curso é um sucesso e uma das minhas contribuições essenciais.

didatos a reitor. Quando fui candidato a reitor, em 2001, perdi. Em 1997 fui eleito para a diretoria da Academia Brasileira de Ciências, da qual sou o vice-presidente hoje. Nesse período comecei a me inserir de forma mais oficial na política científica internacional. Fui eleito para a diretoria da International Council for Science, a ICSU, que agrupa todas as representações nacionais de todos os países do mundo e mais as grandes associações internacionais de ciência. Em 2008 me candidatei e perdi a eleição para presidente da ICSU. Em 2004 participei da criação de outro organismo internacional e fui eleito, a InterAmerican Network of Academies of Sciences, a Ianas, que é a única rede mundial de academias que funciona até hoje.

um que conheça um pouco de química entende. Então, é muito usado. Em 1982 descrevemos uma reação que, de certa forma, é um caminho para se tentar entender a origem da vida. Num sistema micelar [micela é uma estrutura globular formada por um agregado de moléculas], medindo velocidade, descobrimos um sistema totalmente sintético, uma vesícula que acelera a velocidade de uma reação milhões de vezes. Isso é importante porque não se poderia criar vida se tudo acontecesse muito devagar. Todos esses trabalhos foram colaborações? Todos. Em 1995, num papo de restaurante com Aníbal Vercesi, da Unicamp, surgiu uma hipótese que foi testada no meu laboratório e com isso a gente fez uma descoberta: descrevemos uma atividade enzimática de uma proteína que chama proteína desacopladora. Basicamente, essa proteína é como se fosse uma embreagem de carro. Quando se pisa na embreagem, a máquina não anda e se gasta muito calor. Essa proteína faz a mesma coisa com os seres vivos. Acreditava-se que ela só existisse no tecido gorduroso marrom dos mamíferos. Descobrimos também em uma planta.

Temos de nos comparar com os países desenvolvidos, não com a América Latina

E depois? Em 1995 virei presidente da Sociedade Brasileira de Bioquímica e Biologia Molecular (SBBq). Continuei no conselho universitário como presidente da comissão de assuntos acadêmicos. Eleito reitor em 1997, o Jacques Marcovitch me convidou para ser pró-reitor de Pesquisa. Aceitei imediatamente, embora tenha sido uma surpresa para mim porque naquele ano me recusei a fazer campanha para os can-

Como avalia a ciência que faz? O que me permitiu fazer tudo que fiz foi a ciência que produzi. A minha primeira publicação – para variar, sobre cinética – ocorreu em 1965. Pela primeira vez foi demonstrado que uma enzima qualquer se comportava de um jeito específico. Esse artigo vai fazer quase 50 anos e continua sendo citado. Outra descoberta importante, do meu ponto de vista, é a que fizemos em 1978 sobre uma vesícula [uma estrutura-modelo de membrana celular] feita de lipídeo sintético. Esse é também um paper extremamente citado. Depois, em 1979, publicamos uma série de artigos sobre cinética pura. O primeiro era bem didático, trazia coisas novas, e está escrito numa forma que qualquer

Para encerrar, qual a sua visão da ciência brasileira hoje comparada com os demais países da América Latina? Essa comparação não é justa porque estamos muito à frente dos outros países em termos de estrutura. Não há nenhum outro país da América Latina que tenha, por exemplo, uma FAPESP. Não me refiro aos organismos similares ao CNPq, Capes ou Finep. Temos tudo isso e mais a FAPESP. Os outros não. Agora, se compararmos com o mundo, a coisa muda. Porque o impacto relativo da publicação brasileira não chega a ser um impacto médio das revistas de ciência que se publicam no mundo desenvolvido. Está abaixo. Isso quer dizer que a qualidade do que a gente faz não é satisfatória, ainda. Isso não quer dizer que não existam cientistas. Mas com poucos cientistas não se faz um país. n PESQUISA FAPESP 193 | 31


 política C&T _ his tória da fapesp IX

Terra em transe As metrópoles se transformaram, assim como os paradigmas da pesquisa sobre os problemas urbanos texto  

Fabrício Marques

Fotos  Leo

Ramos

O contraste da favela Real Parque ante os prédios da região da Nova Faria Lima, na Zona Sul de São Paulo

32   março DE 2012


O

s problemas urbanos do Brasil se tornaram mais complexos nas últimas décadas, e a FAPESP, ao longo de seus 50 anos, financiou o trabalho de pesquisadores que revelaram essa transformação. Se na década de 1970 os estudos diagnosticavam as periferias das metrópoles como um território fortemente atingido por ondas migratórias e uniformemente alijado da presença do Estado, o paradigma atual da pesquisa mostra que elas se tornaram heterogêneas, são contempladas com serviços públicos de saúde e educação, ainda que com qualidade desigual, mas que comprometem a vida de seus moradores com deficiências de transporte e violência, para citar dois exemplos. Outra mudança de paradigma tem a ver com a capacidade de reunir dados sobre as cidades e utilizá-los, com a ajuda de recursos computacionais, para gerar conhecimento novo e aplicações para a sociedade. “A massa de dados disponível hoje é gigantesca e permite realizar estudos de grande alcance. Há não muito tempo os pesquisadores eram obrigados a restringir o alvo de pesquisa pela dificuldade de coletar dados”, explica Marta Arretche, professora do Departamento de Ciência Política da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da Universidade de São Paulo (USP) e diretora do Centro de Estudos da Metrópole (CEM), um dos 11 Centros de Pesquisa, Inovação e Difusão (Cepid) apoiados pela FAPESP entre 2000 e 2011.

Uma das vocações do CEM é produzir e disseminar dados georreferenciados sobre as principais metrópoles brasileiras. “Quando começamos, o geoprocessamento era pouco desenvolvido no país e as bases cartográficas, raras”, diz Eduardo Marques, professor do mesmo departamento da USP e diretor do centro entre 2004 e 2009. “Órgãos públicos produziam dados, que acabavam não sendo disponibilizados. Nós compramos bases de dados, digitalizamos e integramos outras, usamos para nossas pesquisas e as colocamos no nosso site, de graça.” O centro também desenvolve estudos e projetos sob encomenda. Quando alguma esfera de governo precisa de um trabalho específico, o CEM faz o geoprocessamento com dados disponíveis, que são analisados e cruzados pelos pesquisadores do centro. O CEM é sediado no Centro Brasileiro de Análise e Planejamento (Cebrap), instituição responsável, na década de 1970, por estudos fundamentais da sociologia urbana. Um deles foi São Paulo 1975: crescimento e pobreza, patrocinado pela Fundação Ford e a Arquidiocese de São Paulo. A tese do livro, segundo a qual o crescimento econômico não era incompatível com o aumento das desigualdades sociais, mas antes era capaz de amplificá-las, converteu a obra em referência dos tempos da ditadura. O tipo de pesquisa que o CEM faz hoje difere do daquela época, observa Eduardo Marques. “Nos anos 1970, a metrópole era o locus para se discutir os grandes temas da agenda de pesquisa, como de-

sociologia

urbanismo

pESQUISA FAPESP 193    33


mocracia, capitalismo e dependência, mas não era um objeto em si mesmo. Hoje é o foco central da pesquisa”, afirma. No passado, os estudos de sociologia urbana tendiam a ser mais ensaísticos do que empíricos. O livro Pesquisa & desenvolvimento, de 1973, que narra as atividades da FAPESP em sua primeira década, registra o primeiro financiamento da Fundação a estudos dessa área. Entre 1962 e 1963, os professores Azis Simão e Douglas Monteiro, da FFLCH/USP, foram auxiliados na pesquisa Sociabilidade espontânea e organizada em um bairro da capital. A pesquisa foi feita na Vila Diva, Zona Leste de São Paulo, com aplicação de questionários em 178 domicílios, mas não chegou a ser publicada. “Foi importante, porque quase não se fazia pesquisa de campo nessa época”, lembra-se Eva Alterman Blay, professora aposentada do Departamento de Sociologia da FFLCH, que atuou como voluntária e ajudou a aplicar os questionários. “Era um lugar distante e difícil de chegar.” VIVER EM RISCO

Naturalmente, a massa crítica formada nos anos 1960 foi importante para estabelecer as bases dos estudos atuais. Lúcio Kowarick, professor do Departamento de Ciência Política da FFLCH e um dos autores do São Paulo 1975: crescimento e po34   Março DE 2012

Uma iniciativa da FAPESP no final dos anos 1990, o Programa de Pesquisa em Políticas Públicas, ajudou a impulsionar a colaboração entre pesquisadores dos problemas urbanos e gestores dos municípios. Raquel Rolnik, professora da Faculdade de Arquitetura e Urbanismo da USP, teve dois projetos aprovados no programa e destaca seus efeitos. “Um deles envolveu a preparação de um material de capacitação dos municípios para entender o Transporte Estatuto das Cidades, criado em 2001”, afirma. “Ficou conhecido e violência como o Kit do Estatuto, com um comprometem jogo, uma cartilha, um vídeo e outros materiais distribuídos para os gestores municipais”, afirma. O a qualidade conteúdo foi baseado numa pesquisa sobre realidades socioterde vida dos ritoriais e municipais paulistas. O grupo coordenado por Raquel moradores também obteve financiamento da FAPESP para uma série de estudas periferias dos, iniciados nos anos 1990 e em fase de atualização, para mapear breza, recorda-se do primeiro auxílio que a evolução dos municípios paulistas do recebeu da FAPESP, em 1966. Ele havia ponto de vista de suas condições de urdeixado o Brasil em 1964, temendo perse- banização. A análise dos dados do Censo guição política da ditadura, e transferiu- de 2010 em comparação com os de 1980, -se para a França, onde iniciou o mestra- 1991 e 2000 mostra uma situação comdo com bolsa do governo francês. Após plexa. “As piores condições de urbanidois anos, a bolsa tornou-se insuficiente zação não atingem necessariamente os e ele procurou o então diretor científico municípios mais pobres. A precariedade da FAPESP, William Saad Hossne. “Ex- afeta mais as franjas metropolitanas, na pliquei a situação e ele pediu que eu es- periferia de onde se concentra a riqueza crevesse uma carta relatando que estava e a maior disputa pela terra urbana, num na França por motivos políticos. Me con- processo de ocupação sem regulação que cedeu a bolsa para os dois anos restantes continuou operando nas últimas décae pude concluir o mestrado”, lembra-se. das”, afirma, citando cidades do litoral Kowarick diz que a FAPESP também foi norte de São Paulo e da Baixada Sanimportante para que pudesse participar tista, e, no caso da Região Metropolitade seminários no exterior. No início dos na de São Paulo, de seus municípios de anos 2000, Kowarick obteve da FAPESP ocupação mais recente, como Ferraz de um auxílio a pesquisa que rendeu o estu- Vasconcelos e Francisco Morato. “O que do Viver em risco: moradia, desemprego e queremos entender hoje é como a riqueviolência urbana na Grande São Paulo. A za produzida pelo município se transpartir de relatos de moradores de favelas, forma ou não em condições melhores cortiços e loteamentos clandestinos, o es- de urbanização”, diz Raquel. O investimento mais robusto e articutudo mostrou, entre outras evidências, que a violência tornou-se uma contingência lado da FAPESP, contudo, foi o Centro de com força para estruturar a vida dos habi- Estudos da Metrópole, apoiado ao longo tantes das periferias. O medo da violência de 11 anos. “Ao longo de sua trajetória, o delimita o horário em que as pessoas saem CEM amadureceu, reforçou seus laços à rua e impõe um código de silêncio. A com parceiros internacionais e com a pesquisa envolveu bolsistas de iniciação sociedade e afinou o foco de suas pescientífica e mestrado e resultou num livro quisas, tornando-se uma instituição releque ganhou o Prêmio Jabuti em 2009 na vante internacionalmente”, diz Hernan Chaimovich, coordenador do programa categoria Ciências Humanas.


dos Cepids, ao qual o CEM esteve ligado. Marta Arretche, diretora do centro, explica que a instituição abriu mão da ambição de apontar uma grande solução para o problema das metrópoles, pela impossibilidade de realizar a tarefa, e, no lugar, passou a selecionar temas específicos para os quais conseguisse contribuir. Entre os estudos mais importantes do CEM, um destaque é o Mapa da vulnerabilidade social, que utilizou dados do Censo e técnicas de geoprocessamento para mapear a pobreza no município de São Paulo. Divulgado em 2004, o mapa cartográfico teve como fonte básica o Censo de 2000 e produziu um mosaico da situação de cada um dos 13 mil setores da cidade estabelecidos pelo IBGE, conseguindo captar situações específicas de vulnerabilidade em grupos de 300 a 400 famílias agregadas em cada setor censitário. “O mapa foi importante para mostrar que a renda é uma variável limitada para definir a pobreza”, diz Marta Arretche. “Ficou claro que o acesso a serviços e equipamentos públicos, entre vários fatores, pode colocar em situações de vulnerabilidade muito diferentes duas famílias que tenham a mesma renda”, afirma. Outro estudo relevante foi coordenado pela cientista política Argelina Figueiredo, primeira diretora do CEM.

Foram realizados surveys em São Paulo, Salvador e Rio de Janeiro com amostras de 40% da população mais pobre. “Eles mostraram que os pobres têm acesso universal à saúde e à educação, independentemente de sua renda. O acesso aos serviços não tem relação com critérios clientelísticos”, diz Marta Arretche.

mais centradas na vizinhança. Quanto mais pobre o indivíduo, mais próximas dessa característica são suas redes. Mas as redes também variam no interior de cada grupo. Esse é o caso das redes dos adolescentes pobres e de classe média, ambas compostas por familiares, amigos da família e, sobretudo, colegas de escola. Os processos de diferenciação entre elas ajuda a exemplificar o efeito das redes REDES PESSOAIS Estudos liderados por Eduardo Marques sobre a trajetória dos indivíduos e sobre e Nadya Araújo Guimarães mostraram a reprodução das desigualddes sociais. o papel das redes pessoais no acesso a “Em ambos os grupos, elas são grandes, emprego e renda. As redes se definem variadas e compostas por pessoas parecomo o conjunto de pessoas conhecidas, cidas”, diz Eduardo Marques. Quando como amigos, familiares, colegas de tra- o indivíduo ingressa na idade adulta, balho ou de escola, a quem um indivíduo um abismo passa a separar os pobres pode recorrer quando está procurando da classe média. “A explicação está no emprego, em dificuldade financeira ou acesso à universidade. Quem entra na tentando fazer um negócio. A variedade universidade tem quatro, cinco ou seis dos tipos de redes, mesmo entre a popu- anos para construir uma rede formada lação mais pobre, mostra situações dis- por indivíduos da mesma profissão. Se o tintas. A vulnerabilidade é maior quando indivíduo for um médico, será uma rede o indivíduo só pode recorrer a um grupo de médicos, a quem poderá recorrer se restrito de contatos, em geral familiares e ficar desempregado ou precisar de um vizinhos, em situação muito semelhante parceiro de negócios.” Quem não tem à sua. Um dos dados mais importantes acesso à universidade acaba mantendo 1 a rede que tinha, e encontra dificuldade dessa linha de pesquisa foi a comparação entre os tipos de redes de pessoas pobres em mantê-la. “Imagine o cozinheiro de e de classe média. Em média, as redes de uma padaria. Sua rede é composta por indivíduos em situação de pobreza são um ou dois colegas de trabalho. Se ficar menores, menos variadas, mais locais e desempregado, aceitará o emprego que aparecer. Se for em outra área, perderá aquela rede e construirá outra. Os pobres estão sempre jogando partes de sua rede fora”, diz. Estudo recente liderado por Condições de Marta Arretche mostra uma característica pouco explorada da urbanização universalização de serviços de educação e de saúde cujos prinsão piores cipais provedores são os governos municipais. “Esse fenômeno é fornas franjas temente influenciado pela ação do governo federal. Regras constitudas periferias, cionais obrigam estados e municíocupadas sem pios a gastar 25% de seus recursos com educação e 15% com saúde, bem como ter conselhos municiplanejamento pais de educação e de saúde. Além disso, a regulamentação federal afeta o tipo de política implementada pelos governos subnacionais. Se não tiverem programas de saúde da família e de agentes comunitários, vão ficar sem receber recursos federais. A margem de manobra dos prefeitos é restrita – podem decidir, no máximo, se vai investir mais na periferia ou no centro”, afirma. n pESQUISA FAPESP 193    35


_ F ormação de recursos humanos {

Encontro de dois mundos Workshops discutem caminhos para ampliar a participação dos físicos no esforço de inovação das empresas

N

um momento em que a limitação de recursos humanos qualificados ameaça comprometer a recuperação da economia, a Sociedade Brasileira de Física (SBF) mobiliza-se para corrigir um problema do mercado de trabalho brasileiro: a escassa participação dos físicos nas empresas. De acordo com dados da SBF, o Brasil dispunha em 2007 de 8 mil bacharéis em física, dos quais 3 mil têm doutorado. Mas apenas 2% desses doutores estão empregados em empresas. A esmagadora maioria trabalha em universidades, centros de pesquisa e escolas de ensino fundamental e médio, embora o conhecimento científico de que dispõem pudesse ajudar as empresas no desafio da inovação – nos Estados Unidos, a American Physics Society e o American Institute of Physics premiam todos os anos pesquisas em física que resultaram em desenvolvimento de novas tecnologias feitas por centros de pesquisa e desenvolvimento de empresas. Nos últimos anos, os agraciados pertenciam a companhias como a Texas Instruments, General Electric, IBM Research, Lucent Technologies e Xerox. Em parceria com o Centro de Gestão e Estudos Estratégicos (CGEE) e patrocinado pela Financiadora de Estudos e Projetos (Finep), a SBF já promoveu dois workshops nos quais reuniu pesquisadores, representantes do governo e de grandes e pequenas empresas para levantar os problemas que emperram o relacionamento entre físicos e empresas e, claro, apontar caminhos. “A inadequação da qualificação profissional é um gargalo para inovar. E é uma oportunidade para os físicos, pois eles têm conhecimentos científicos abrangentes, aprendem rápido, interessam-se por 36    março DE 2012

problemas complexos e trabalham com visão de conjunto”, diz Eduardo Couto e Silva, físico do CGEE e coordenador dos workshops, que resultarão num relatório final com propostas de novas estratégias. Segundo o presidente da SBF, Celso Pinto de Melo, a intenção é contribuir para a formulação de políticas de ciência e tecnologia que estimulem a inovação a partir do conhecimento gerado no Brasil e agregar valor aos produtos fabricados aqui. “O Brasil se encaminha para ser a quinta economia do mundo. Nosso desafio é entender como a física pode contribuir para isso e o que fazer para que a ciência brasileira, e a física em particular, ocupe posição equivalente”, afirma. Os workshops, realizados em 2011 e em fevereiro passado, já produziram um retrato da percepção das empresas a respeito dos físicos (e vice-versa) que terá utilidade para aproximar as duas partes. Os representantes das empresas disseram apreciar, com base na experiência que já tiveram com físicos, a curiosidade e a inquietude desses profissionais, capazes de utilizar um conhecimento científico abrangente para solucionar problemas, e elogiaram sua capacidade de aprender novas técnicas. Mas também relataram dificuldades em trabalhar com os físicos. A principal está relacionada com o pouco preparo para atuar no ambiente corporativo. “Houve uma queixa recorrente de que a formação dos físicos no país é essencialmente voltada para a carreira científica, fazendo com que eles frequentemente sejam vistos como dispersivos e pouco experientes em projetos”, diz Couto e Silva.

2% apenas dos 3 mil doutores em física brasileiros trabalhavam em empresas em 2007


Texas Instruments

Uma conclusão preliminar dos workshops é que a comunidade dos físicos brasileiros enxerga somente suas áreas particulares como elos com as indústrias e ainda não consegue perceber o que são demandas do mundo da produção e do desenvolvimento tecnológico. Outra queixa das empresas é que os melhores físicos do país seguem privilegiando a carreira nos centros de pesquisa públicos – eles, portanto, não costumam estar disponíveis para o setor privado. “A indústria também quer os físicos mais qualificados”, disse num dos workshops Jarbas Caiado de Castro, da Opto Eletrônica, empresa criada em 1985 por pesquisadores do Instituto de Física da Universidade de São Paulo (USP), em São Carlos, que desenvolveu, entre outros projetos, uma câmera para a terceira geração do Satélite Sino-Brasileiro de Recursos Terrestres (Cbers-3), a ser lançado provavelmente neste ano (ver Pesquisa FAPESP nº 162). Os físicos, por sua vez, estão interessados em ampliar sua presença nas empresas, mas mantêm certa cautela. Acham importante promover mudanças no currículo dos cursos de física, incentivando a interdisciplinaridade em áreas estratégicas e fortalecendo áreas com maior potencial de inovação. A exposição dos estudantes às necessidades e desafios do setor empresarial também seria importante. Mas os físicos resistem à ideia de criar um curso excessivamente voltado para as necessidades das empresas. “Eles temem formar profissionais sem bases sólidas, sem a essência da formação abrangente do físico”, diz Couto e Silva. Os pesquisadores também cobram das empresas mais investimentos em pesquisa e desenvolvimento, que aumentariam a demanda pelos físicos – a

constatação é de que ainda faltam hoje no Brasil projetos que dependam do conhecimento de física ou da atuação dos físicos. Também reclamam da falta da regulamentação da profissão, que faz com que físicos sejam contratados em vagas técnicas, com remuneração e responsabilidade inferiores às vagas dos engenheiros. Para Couto e Silva, há espaço para avançar, ainda que as mudanças não devam acontecer rapidamente. De acordo com o presidente da SBF, a aproximação mais notória entre cientistas e empresas ocorre na exploração de petróleo. Mas há potencial de participação em campos como a tecnologia da informação, desenvolvimento de fármacos, biotecnologia, energia nuclear e na indústria aeroespacial. “A base industrial do setor de defesa precisa de mais físicos”, diz o vice-almirante Carlos Afonso Pierantoni Gambôa, vice-presidente executivo da Associação das Indústrias de Materiais de Defesa e de Segurança (Abimde), referindo-se ao desafio de reestruturar a indústria brasileira de defesa. “O conhecimento em física é essencial nos projetos inovadores das nossas empresas. Tome o exemplo dos engenheiros formados pelo Instituto Tecnológico de Aeronáutica. A maioria deles vai trabalhar na Embraer ou é absorvida por boas oportunidades no mercado financeiro. Para as empresas menores do setor, falta mão de obra qualificada”, afirma. n Fabrício Marques

Unidade da Texas Instruments, empresa norte-americana que já ganhou prêmio por desenvolver tecnologias com o apoio de físicos

pESQUISA FAPESP 193    37


 ciência _ resis tência à insulina

Conexões viscerais Mudança no perfil da microbiota intestinal favorece o desenvolvimento de diabetes e obesidade texto  Ricardo

Zorzetto

ilustração  Larissa

C

Ribeiro

ada pessoa traz em si um universo. Literalmente. Calcula-se que o corpo humano seja formado por 75 trilhões de células e que abrigue um número 10 vezes maior de bactérias, um bom tanto delas (cerca de 100 trilhões) nos intestinos. Esses dados não são novos, mas só recentemente passaram a despertar o interesse da ciência e da medicina. Por muito tempo se acreditou que a convivência com os inquilinos microscópicos fosse benéfica para as bactérias e seus hospedeiros na maior parte das vezes. Ou ainda que, no máximo, não favorecesse nem prejudicasse qualquer dos lados. Essa ideia de coexistência pacífica, no entanto, começou a mudar nos últimos anos quando surgiram estudos mostrando que a intimidade contínua – e, é necessário que se diga, inevitável – pode em alguns casos trazer consequências indesejáveis. Pelo menos, para o hospedeiro. Um estudo publicado em dezembro passado por pesquisadores brasileiros na revista PLoS Biology está chamando a atenção de muita gen-


te – teve 11 mil acessos em menos de três meses – por evidenciar uma situação em que as bactérias dos intestinos podem causar prejuízos para o organismo humano. A equipe do médico Mário Abdalla Saad, da Universidade Estadual de Campinas (Unicamp), demonstrou que um determinado grupo de bactérias intestinais pode, em certas situações, iniciar um desequilíbrio metabólico que quase sempre leva ao que se tornou em apenas duas ou três décadas um dos mais importantes problemas de saúde pública do mundo: o desenvolvimento de diabetes e obesidade, que atingem, respectivamente, 350 milhões e 500 milhões de pessoas. A alteração que antecede o diabetes e o ganho excessivo de peso é o que os médicos chamam de resistência à insulina. Quando a resistência à insulina se instala, o corpo deixa de usar de maneira adequada o hormônio que permite às células dos músculos e de outros tecidos retirar o açúcar (glicose) do sangue e convertê-lo em energia ou estocá-lo para usar mais tarde. Em experimentos com camundongos, a equipe de Saad verificou que por trás da resistência à insulina podem estar as bactérias do filo Firmicutes, grupo que reúne dezenas de espécies e, ao lado de outros grupos de bactérias, constitui a microbiota intestinal. O aumento da proporção de Firmicutes na microbiota parece influenciar o surgimento de diabetes e obesidade de duas maneiras. A primeira é por melhorar a capacidade de extrair energia dos alimentos. Algumas espécies de Firmicutes quebram longas moléculas de açúcares (polissacarídeos) encontrados em cereais, frutas e verduras, que de outro modo não seriam aproveitados pelo corpo. A segunda é por contribuírem para o desenvolvimento de uma inflamação sutil, típica da obesidade, que se espalha pelo organismo e interfere no aproveitamento da insulina.

“A microbiota intestinal não é a única causa do diabetes e da obesidade, nem provavelmente a mais importante”, comenta Saad. “Mas constatamos que ela contribui para gerar uma inflamação no tecido adiposo que inicia um processo de ganho anormal de peso que depois se perpetua”, explica o pesquisador, cujo grupo identificou anos atrás que essa inflamação altera o funcionamento da região cerebral que controla a fome e a saciedade (ver Pesquisa FAPESP no 140). Não são as Firmicutes que disparam a inflamação. Essas bactérias, por algum mecanismo ainda não conhecido, parecem facilitar a passagem de pequenos fragmentos de outras bactérias pela delicada parede dos intestinos. Esses fragmentos – moléculas formadas por açúcares e gorduras, os lipopolissacarídeos (LPS) – atravessam a mucosa intestinal e aderem a receptores na superfície de diferentes tipos de células do corpo. Ao se conectarem à membrana dos macrófagos, as células de defesa que primeiro reconhecem microrganismos invasores e compostos estranhos ao organismo, os LPS acionam sinais bioquímicos que colocam o sistema imunológico em alerta e iniciam a inflamação leve, dezenas de vezes menos intensa do que a causada pela entrada de bactérias no sangue (infecção). A inflamação associada à infecção é debelada em dias, mas a causada pelos LPS pode durar anos e afetar todo o organismo. Nas células dos músculos, do fígado e do tecido adiposo, os sinais inflamatórios disparados pelos LPS também geram um efeito distinto: impedem o uso da insulina e a entrada de glicose nas células – é a resistência à insulina (ver infográfico). A exposição prolongada ao LPS faz a resistência à insulina se instalar primeiro no fígado e depois nos músculos, o tecido que mais consome energia no corpo. Só mais tarde ela atinge o tecido adiposo. Aí está, aliás, a explicação de por

endocrinologia

fisiologia

imunologia

pESQUISA FAPESP 193    39


TLR2 não ficavam diabéticos nem obesos. Mas o grupo de Saad não conseguia reproduzir o resultado. “Andrea me mostrava os dados e eu dizia que havia algo errado. Os animais que em princípio deveriam permanecer magros haviam engordado mais do que os normais”, conta Saad. A diferença era explicada em parte pelas condições em que os animais eram criados. Os camundongos sem TLR2 do grupo suíço-canadense viviam em salas livres de bactérias e eram alimentados com ração e água esterilizados. Fora desse ambiente, eles adquiriam uma microbiota intestinal e engordavam um pouco. Os animais do laboratório de Saad não viviam em ambiente estéril, mas não recebiam dieta hipercalórica. Eram tratados com ração normal e, mesmo assim, aos 4 meses de vida, eram 50% mais pesados que os roedores sem a alteração genética. Eles desenvolviam diabetes e a obesidade ainda mais grave se tratados com dieta rica em gorduras. Depois de repetir os testes e se certificar de que os animais não haviam sido trocados, Saad e Andrea começaram a buscar outras possíveis explicações. Como esses animais tinham níveis mais altos de LPS no sangue e aumento dos sinais de inflamação, eles decidiram analisar a microbiota intestinal dos roedores. Os camundongos sem TLR2 haviam de-

senvolvido uma microbiota bem distinta da dos outros animais. Ela era formada por 48% de bactérias Firmicutes e 48% de Bacteroidetes. A dos outros continha 14% de Firmicutes, 43% de Bacteroidetes e 39% de Proteobactéria. Essa era uma boa pista de que o resto da explicação poderia estar na microbiota. Em 2006 o grupo do médico norte-americano Jeffrey Gordon, da Universidade de Washington, havia observado que a microbiota de pessoas obesas era distinta da de quem tem peso considerado saudável. A dos obesos era formada basicamente por Firmicutes e Bacteroidetes, com uma proporção do primeiro grupo bem maior que a encontrada em indivíduos com o peso adequado. Essas descobertas impulsionaram os estudos sobre infectobesidade, linha de

O Projeto Instituto Nacional de Obesidade e Diabetes nº 08/57952-5 modalidade Projeto Temático Co­or­de­na­dor Mário José Abdalla Saad – FCM/Unicamp investimento R$ 3.292.062,55 (FAPESP)

As bactérias e a obesidade Microbiota contendo mais Firmicutes aumenta a absorção de calorias e dispara inflamação subclínica Firmicutes

Bacteroidetes

Protobactéria

Outros

LPS

Sangue

animal obeso animal saudável

40% 3%

43% 14%

3%

48%

Parede do intestino

48% 1% nos intestinos O aumento da proporção de Firmicutes eleva a absorção de nutrientes e facilita a passagem de fragmentos de bactérias (LPS) para o sangue

40   março DE 2012

infográfico  tiago cirillo  ilustração  larissa ribeiro

que o corpo acumula gordura. A glicose não usada pelo fígado e pelos músculos permanece no sangue e é absorvida pelo tecido adiposo. “As células desse tecido recebem glicose e a estocam como gordura durante muito tempo antes de se tornarem resistentes à insulina”, explica Fábio Bessa Lima, do Laboratório de Fisiologia do Tecido Adiposo da Universidade de São Paulo (USP). Foram necessários quatro anos de trabalho até concluir que as Firmicutes poderiam desencadear a resistência à insulina. No laboratório de Saad, a bióloga Andrea Moro Caricilli realizou diversos testes com camundongos até identificar a conexão entre a microbiota intestinal, a inflamação e a resistência à insulina. Tudo começou em 2008, quando a equipe de Saad obteve um resultado inesperado num experimento com roedores que haviam recebido do imunologista Ricardo Gazzinelli, da Universidade Federal de Minas Gerais. Os animais eram modificados geneticamente para não expressar na membrana de suas células uma das proteínas – o receptor toll-like 2 ou TLR2 – que identificam componentes estranhos ao organismo e disparam a inflamação. Na época pesquisadores do Canadá e da Suíça haviam demonstrado que, mesmo alimentados com uma dieta com 10 vezes mais gordura que o normal, os roedores sem


pesquisas surgida em 1988 que busca na infecção por vírus, bactérias e outros microrganismos a explicação para os casos de obesidade não associados a alterações genéticas, sedentarismo e distúrbios alimentares. Apesar dos avanços recentes, como o mapeamento das bactérias da microbiota intestinal humana, que identificou quase 400 espécies, ainda não há uma boa explicação para o fato de a microbiota do obeso ser diferente da de um magro. “Ainda não se sabe se a mudança no perfil da microbiota é causa ou consequência da obesidade”, comenta a médica Sandra Vivolo, da Faculdade de Saúde Pública da USP, especialista em epidemiologia do diabetes. Os dados do grupo da Unicamp sugeriam que camundongos sem TLR2 haviam desenvolvido resistência à insulina e se tornado obesos por abrigarem uma microbiota intestinal diferente. Mas era preciso confirmar. Saad e Andrea decidiram então fazer outros testes. Primeiro usaram antibióticos para eliminar a microbiota intestinal dos animais. Se ela era a causa da resistência à insulina, ao matar as bactérias o problema deveria diminuir ou até ser eliminado. Ao final das duas semanas de tratamento com antibióticos, a quantidade de bactérias havia diminuído drasticamente e a proporção de cada grupo era semelhante à encontrada nos animais sem a alteração

Fígado

Tecido muscular

genética. Mais importante: a sensibilidade à insulina normalizou, o diabetes desapareceu e o roedor emagreceu. Estava demonstrada a conexão entre a microbiota, o surgimento da resistência à insulina e ao ganho de peso. Mas faltava saber se eram as bactérias dos intestinos que de fato iniciavam as alterações metabólicas que originam esses problemas. Para testar essa ideia, Andrea transplan-

O trabalho da PLoS Biology abre caminho para se buscar novas formas de combate e prevenção ao diabetes e à obesidade. “Não estamos propondo o uso de antibiótico para tratar a obesidade; no estudo eles servem para provar um conceito”, alerta Saad. Aliás, é possível até que, se adotados no tratamento de obesos, os antibióticos causem mais estragos que benefícios. A microbiota desempenha funções essenciais para o organismo – as bactérias produzem vitaminas e enzimas que ajudam a Microbiota rica em metabolizar gorduras. Além disso, ao eliminar bactérias Firmicutes altera uma microbiota desfavorável, é possível que o metabolismo da insulina se instale outra menos favorável ainda. Centros na Europa e tou a microbiota de roedores que não nos Estados Unidos até fazem transplanproduziam TLR2 e a de animais magros te de microbiota em seres humanos, mas para camundongos com uma microbiota de modo experimental, para tratar inmais simples. Os animais que receberam fecções graves. “Há quem apoie o uso a microbiota dos roedores sem TLR2, dessa estratégia em outras circunstâncom altos níveis de Firmicutes, se tor- cias, mas ainda não há dados que o jusnaram diabéticos e obesos, enquanto os tifiquem”, afirma o gastroenterologista transplantados com a do grupo controle Eamonn Quigley, da University College permaneceram iguais. “Esses resulta- Cork, na Irlanda. Mesmo que o procedimento seja aprodos mostram que um fator ambiental, a microbiota, se sobrepôs à proteção ge- vado para a obesidade, nada garante que nética”, diz Saad. “A microbiota é mais funcionará. “No longo prazo, há uma tendência de o intestino ser recolonizado importante do que se pensava.” pela microbiota original”, diz Quigley. Alguns acreditam que os probióticos, compostos contendo microrganismos vivos, possam ajudar a desenvolver uma microbiota que evite o ganho de peso. Tecido Mas não está comprovado. “Talvez funadiposo cione como prevenção, antes que se comece a engordar”, imagina Saad. Enquanto não avançam os testes, a saída menos arriscada é praticar exercícios receptor LPS de LPS físicos e apostar em uma dieta com pouca gordura – em especial, a de carnes vermelhas. Pesquisadores chineses mostrainsulina célula ram em 2010 que o consumo de gorduras altera a microbiota e leva à obesidade. Em receptor dezembro um estudo no British Journal of de insulina Nutrition concluiu que consumir frutas, verduras, grãos integrais e peixes reduz a inflamação típica da obesidade. n

nos outros tecidos

nas células

Os LPS encontrados no sangue

Os LPS acionam os sinais

aderem a receptores na

bioquímicos da inflamação.

superfície das células de defesa

Esses mesmos sinais

e das células dos músculos,

prejudicam a ação da insulina

do fígado e do tecido adiposo

e a absorção de glicose

Artigo científico CARICILLI, A.M. et al. Gut microbiota is a key modulator of insulin resistance in TLR 2 knockout mice. PLoS Biology. 6 dez. 2011. pESQUISA FAPESP 193    41


_ parasitas emergentes

Formas brasileiras de toxoplasmose Começam a aparecer os tipos locais de protozoário causador de encefalites Carlos Fioravanti

Os taquizoítos, as formas circulantes do T. gondii

42 

_ março DE 2012

1

N

o início de janeiro, uma mulher de 22 anos, com muita dor de cabeça e uma paralisia no lado esquerdo do corpo, decidiu ir a um ambulatório especializado de São Bernardo do Campo, na Grande São Paulo. A enfermeira que a atendeu a convenceu a fazer um teste rápido de detecção do vírus HIV, causador da Aids. O resultado, que saiu em 30 minutos, deu positivo. “A moça tinha vida sexual havia oito anos, fazia sexo desprotegido, tinha dois ou três parceiros por semana, nunca tinha feito teste para HIV e não sabia que estava com Aids”, relata o médico José Ernesto Vidal, que a atendeu em seguida. A dor de cabeça e a paralisia do lado esquerdo do corpo sugeriam uma encefalite causada pelo protozoário Toxoplasma gondii. Ele a internou de imediato para começar o tratamento contra a doença neurológica e depois, assim que possível, iniciar a medicação contra o vírus da Aids. A toxoplasmose cerebral sempre foi uma doença oportunista, transmitida normalmente por água ou alimentos contaminados (e não por via sexual), que normalmente emerge quando as defesas do organismo estão enfraquecidas. Agora essa infecção está merecendo mais atenção porque testes moleculares e genéticos, empregados como parte do diagnóstico, estão mostrando variedades de T. gondii exclusivas do Brasil, podendo causar sintomas atípicos ou mais graves em uma parte das pessoas infectadas. “Nossos testes estão mostrando que as variedades brasileiras são geneticamente diferentes dos tipos clássicos 1, 2 e 3, registrados, principalmente, nos Estados


Thais Alves da Costa Silva / Cristina da Silva Meira / Fabio Colombo / IAL

Unidos e na Europa, e algumas podem ser mais virulentas”, afirma Vidal. Em um estudo pioneiro em São Paulo, sua equipe do Instituto de Infectologia Emílio Ribas e a da pesquisadora Vera Lúcia Pereira-Chioccola, do Instituto Adolfo Lutz, encontraram dois genótipos (conjuntos de genes), identificados pelos números 6 e 71, que estão se mostrando muito agressivos em seres humanos, causando quadros graves de encefalites. Um terceiro genótipo, o 65, mostrou-se bastante frequente, indicando que pode ser a variedade mais comum no estado de São Paulo. Das três variedades mais detectadas no mundo, duas são frequentes no Brasil (1 e 3). Recentemente, o tipo 2 de Toxoplasma gondii, comum na Europa, América do Norte e Ásia, foi encontrado em aves em Fernando de Noronha”, observa Vera Lúcia. As três variedades agora identificadas em seres humanos resultaram de análise de amostras de sangue, fluido cerebroespinhal ou líquido amniótico de 62 pessoas atendidas no Emílio Ribas e no Hospital de Base de São José do Rio Preto de janeiro de 2007 a janeiro de 2010. Dessas, 25 apresentavam toxoplasmose cerebral e Aids. “No Brasil, a toxoplasmose cerebral é a primeira doença neurológica definidora de Aids e a de maior incidência em pacientes com Aids não submetidos ao tratamento com os retrovirais”, diz a pesquisadora do Adolfo Lutz. Outras duas tinham toxoplasmose aguda, 12 toxoplasmose ocular, 17 eram mulheres grávidas com toxoplasmose aguda e seis eram recém-nascidos com toxoplasmose congênita.

Os pesquisadores conseguiram formar 20 genótipos completos e os associaram com os dados clínicos de cada paciente, para examinar a virulência de cada um. O tipo 65, identificado em 18 pessoas, mostrou uma virulência variável: causou encefalites relativamente amenas, que puderam ser detidas por meio de medicação, mas também toxoplasmose aguda em quatro pessoas com o sistema de defesa aparentemente em ordem. Uma delas era uma mulher que tivera uma infecção aguda durante a gravidez, mas sem nenhum sintoma de toxoplasmose, e outra desenvolveu uma toxoplasmose cerebral, mesmo sendo HIV negativa. Os tipos 71 e 6 foram identificados em pessoas com toxoplasmose cerebral grave, que morreram, mesmo depois de receberem o tratamento. A caracterização dos genótipos, realizada por Isabelle Martins Ribeiro Ferreira, do Adolfo Lutz, foi publicada em outubro de 2011 na revista Experimental Parasitology. O genótipo 71 já tinha sido encontrado em galinhas, o 65 em galinhas e em gatos e o 6 em aves, animais domésticos e ovelhas, refletindo as formas pelas quais esse parasita é transmitido. O T. gondii pode chegar ao organismo humano por meio de alimentos – principalmente verdura e carne crua ou malpassada – ou água contaminados com cistos contidos nas fezes de gatos ou felinos silvestres, que são os reservatórios naturais desse protozoário. Em novembro de 2006 um surto eclodiu quando seis pessoas – entre elas uma gestante – comeram bife tartar, preparado com carne moída crua, em um almoço oferecido em um condomínio no Guarujá, no litoral pau-

genética

medicina

microbiologia


2

1

lista. A carne estava contaminada e fez a mulher abortar. O risco de toxoplasmose é um dos grandes medos das mulheres grávidas. Além de aborto, a transmissão congênita, da mãe para o feto, pode causar parto precoce, infecções neonatais, cegueira ou deficiências neurológicas. Esse risco começa a ser dimensionado por meio de vários estudos. Em um deles, uma equipe da Universidade Federal de Minas Gerais (UFMG) examinou 146.307 recém-nascidos de novembro de 2006 a maio de 2007, correspondendo a 95% dos nascidos vivos no estado de Minas nesse período. Desse total, 190 bebês tinham toxoplasmose congênita, com altas taxas de infecção na retina. A prevalência de 1 infectado para cada 770 nascidos vivos foi considerada alta, reforçando a hipótese de que o Brasil poderia abrigar variedades mais virulentas do parasita que em outros países. A infecção congênita pode se expressar apenas na adolescência ou vida adulta. Se na escola, exemplifica Vera Lúcia, um menino de 6 ou 10 anos se queixar que está com a vista escura ou com o campo visual menor, os professores e os pais deveriam considerar a possibilidade de esses serem sinais de uma infecção por T. gondii adquirida na gestação. Por essa razão é que Vidal enfatiza: “As gestantes sem evidência de infecção deveriam ser o grupo prioritário em campanhas preventivas e para realizar testes sorológicos durante a gravidez”. O diagnóstico, porém, não é simples. “A carga parasitária é mais alta só em um momento”, diz Vera Lúcia. Vera Lúcia acredita que possam existir outras variedades de T. gondii capazes de infectar seres humanos, ainda não 44 

_ março DE 2012

identificadas, por duas razões. A primeira é que o levantamento de genótipos brasileiros é recente – começou em 2005 em animais. A segunda é que os pesquisadores trabalham com amostras de sangue de 10 mililitros, o máximo que podem coletar das pessoas que participaram dos estudos que levaram a essas conclusões. Desse modo, a chance de conseguir o próprio parasita é pequena, tudo o que obtêm é o DNA dos protozoários, em meio aos genes das células do corpo humano. Esse protozoário foi identificado em 1908 ao mesmo tempo em roedores por Charles Nicolle e Louis Manceaux, no Instituto Pasteur de Túnis, e por Alfonso Splendore, em coelhos, no Brasil. Em busca de outros meios para identificar o parasita no sangue, os pesquisadores do Adolfo Lutz verificaram que os taquizoítos liberam proteínas conhecidas pela sigla ESA (excreted/secreted antigens), que facilitam a entrada deles nas células hospedeiras. Agora, em um dos laboratórios do oitavo andar do instituto, cercadas por paredes de vidro, Thais Alves da Costa Silva e Cristina da Silva Meira cultivam taquizoítos em meios de cultura apropriados e depois filtram as

ESA. O material de trabalho é o mesmo, mas os objetivos são diferentes: Thais usa as proteínas para imunizar camundongos e caracterizar a resposta do organismo contra esses antígenos, enquanto Cristina as utiliza para diagnosticar a infecção em pessoas. Sem alarde

Ao chegar ao organismo, o T. gondii pode causar febre, manchas pelo corpo e inchaço do fígado e outros sinais que passam em poucos dias. As células de defesa cercam e isolam os parasitas, que podem permanecer anos ou décadas na forma de cistos. Geralmente os cistos permanecem controlados e a infecção passa despercebida. Não há números exatos sobre a incidência e a prevalência da toxoplasmose, que não é uma doença de notificação obrigatória, mas a infecção assintomática é relativamente comum: estima-se que uma em cada três pessoas abrigue pequenas populações desse parasita. “Grande parte da população humana está infectada com T. gondii, mas o sistema imune é suficientemente capaz de controlar a infecção e as pessoas se tornam assintomáticas por toda a vida

fotos  1. josé vidal e vera lucia p. chioccola  2. Thais A. da C. Silva / Cristina da S. Meira / Fabio Colombo / IAL  3. eduardo cesar

3

Um cisto no cérebro (esquerda) e sob o microscópio (abaixo). Cultura de células para diagnóstico (ao lado)


ou até acontecer uma imunossupressão”, diz Vera Lúcia. Apenas de 20% a 30% dos indivíduos infectados desenvolvem a doença, principalmente quando as defesas do organismo estão debilitadas, como ocorre quando as pessoas estão com Aids ou passaram por um transplante. Então os cistos se rompem e liberam taquizoítos para o sangue, disseminando a infecção. Segundo Vidal, à medida que se expandem ou se rompem, os cistos dos parasitas e a resposta inflamatória que eles desencadeiam podem lesar o tecido cerebral e causar focos múltiplos de encefalite com graus variáveis de hemorragia. Especula-se que, ao se instalar no cérebro, o T. gondii poderia facilitar o desenvolvimento de distúrbios psiquiátricos como esquizofrenia e a tendência ao suicídio. Em 2011, pesquisadores da Universidade do Havaí, nos Estados Unidos, apresentaram na Journal of Nervous and Mental Disease uma associação entre a infecção com o T. gondii e uma taxa mais elevada de suicídio em mulheres com mais de 60 anos. Nos últimos anos, vários estudos indicaram que o parasita pode induzir alterações de comportamento em animais de laboratório, fazendo camundongos perderem o medo de gatos. O modo de ação está agora um pouco mais claro. Em um trabalho publicado em setembro de 2011 na revista PLoS One, pesquisadores da Universidade de Leeds, na Inglaterra, verificaram que o T. gondii consegue manipular o comportamento dos hospedeiros porque induz o aumento de produção de um neurotransmissor, a dopamina, nas células nervosas, dando aos animais de laboratório uma coragem que nunca tiveram antes. Vários estudos consideram a possibilidade de as pessoas plenamente saudá-

O Projeto Diagnóstico laboratorial da toxoplasmose com enfoque nas infecções congênita e cerebral – nº 2008/09311-0 modalidade Auxílio Regular a Projeto de Pesquisa Co­or­de­na­dora Vera Lucia Pereira Chioccola – Instituto Adolfo Lutz investimento R$ 104.698,75 (FAPESP)

“As gestantes deveriam ter prioridade nas campanhas preventivas”, diz José Vidal

veis também estarem sujeitas a alterações de comportamento causadas pelo T. gondii, mas por enquanto existem apenas indicações de que esse parasita poderia causar perda de memória ou de atenção ou deixar o raciocínio mais lento. Poderia ser o bastante, porém, para aumentar o risco de causar acidentes de carro. Acidentes de trânsito

Em um trabalho de 2009 publicado na Forensic Science International, pesquisadores da Universidade de Istambul, na Turquia, examinaram o sangue de 218 pessoas que sofreram acidentes não fatais de trânsito e 25 em acidentes fatais, com histórico de toxoplasmose, sem terem consumido bebidas alcoólicas antes, com 191 que também sofreram acidentes, mas estavam livres do parasita. A conclusão dessa comparação é que a infecção causada por esse protozoário no cérebro pode reduzir os reflexos de quem dirige, provavelmente por alterar os níveis de dopamina em circulação no organismo. Vidal observa que essa situação gera um impasse. Em princípio, com base em poucos estudos já publicados, para quem apresenta infecção pelo protozoário seria mais seguro deixar de dirigir automóveis, mas ainda não há argumentos científicos suficientes nem uma legislação que limitem as atividades do dia a dia, como dirigir, ou trabalhos como o de taxista. As ações que previnem a transmissão desse parasita ainda são raras. Uma delas foi decidida pelo governo do estado da Califórnia, nos Estados Unidos, que determinou que os gatos só poderiam ser colocados à venda em petshops se

os donos apresentassem atestados de que os animais estão livres de Toxoplasma gondii. Os especialistas asseguram que o tratamento das formas graves da doença, utilizando terapia combinada à base de sulfa, é eficaz em 90% dos casos, mas não desfaz necessariamente os danos causados pelo parasita no cérebro, como a perda de movimentos e de parte da capacidade cognitiva. Por essa razão é que Vidal acredita que a moça de 22 anos que atendeu no mês passado, embora tenha superado o risco de morrer por causa da encefalite, não se restabelecerá plenamente e pode ter sequelas neurológicas. Segundo ele, como nesse caso a mulher não sabia que era portadora de HIV, possivelmente transmitiu o vírus para outras pessoas até a encefalite aparecer. Em São Bernardo do Campo, Vidal tem atendido em média a um adolescente infectado com HIV por semana. “As histórias que eles contam são chocantes. Em festas, três garotos transam na mesma noite com uma garota, sabendo que ela está infectada pelo HIV, para ver quem se contamina. E poucos procuram hospitais ou centros de saúde para fazer o teste que poderia detectar uma infecção recente, iniciar o acompanhamento médico e, principalmente, evitar condutas que perpetuem a transmissão do vírus na comunidade.” n Artigo científico Ferreira I.M. et. al. Toxoplasma gondii isolates: multilocus RFLP-PCR genotyping from human patients in Sao Paulo State, Brazil identified distinct genotypes. Experimental Parasitology. n. 29, v. 2, p. 190-5. out. 2011. pESQUISA FAPESP 193 

_  45


_ANálises forenses

A cor da pele escrita no DNA Testes permitem descobrir características raciais sem a presença das pessoas texto  

É

Salvador Nogueira 

um estudo que contesta o que se costuma ouvir nas aulas de genética no ensino médio: “Características como cor da pele dependem de relações complexas entre muitos genes, o que praticamente inviabiliza identificar a aparência (fenótipo) de um indivíduo a partir de sua constituição genética (genótipo)”. Embora a primeira premissa esteja correta, pesquisadores brasileiros mostram que é possível sim determinar a pigmentação da pele com base nos genes. Por ora, com modestos 60% de acerto. Esse resultado, obtido pelo grupo da geneticista Maria Cátira Bortolini, da Universidade Federal do Rio Grande do Sul (UFRGS), não teria sido possível se não estivéssemos no início da era da genômica personalizada, em que se tornou viável economicamente sequenciar o conjunto completo de genes de indivíduos e deixá-los disponíveis em banco de dados na internet. Com essa disponibilidade, a equipe brasileira não precisou sequenciar o DNA de ninguém e fez o trabalho com dados genômicos encontrados em bases públicas mundo afora. A equipe da UFRGS usou no total informações de 30 genomas individuais. Alguns eram de pessoas conhecidas, como os geneticistas norte-americanos Craig Venter e James Watson, o que permitiu confrontar os dados genéticos com as características fenotípicas (aparência). Outros eram de indivíduos anônimos, cujos fenótipos os

ilustração  Nelson

Provazi

pesquisadores estimaram a partir das características físicas das etnias a que as pessoas pertenciam. No estudo também foram analisados os genomas de um paleoesquimó e de quatro hominídeos arcaicos: três neandertais; e um hominídeo de Denisova – na realidade, uma mulher que viveu na Sibéria 40 mil anos atrás e que pode pertencer a uma espécie desconhecida do gênero Homo. Para garimpar os dados úteis à pesquisa nessa imensa sopa de letrinhas – cada genoma é formado por dois conjuntos de 23 cromossomos com um total de 3 bilhões de pares de bases nitrogenadas A, T, C e G –, os pesquisadores usaram uma metodologia desenvolvida pelo geneticista Caio Cesar Silva de Cerqueira, primeiro autor do estudo, aceito para publicação no American Journal of Human Biology. “Esse trabalho é um desdobramento de meu projeto de doutorado que diz respeito a genes de coloração em populações humanas”, conta Cerqueira, que é orientado por Cátira. E não se deve subestimar o tamanho da tarefa. “Uma das maiores dificuldades foi encontrar um modo de analisar tamanha quantidade de dados ao mesmo tempo”, diz Cerqueira. “Segundo nosso conhecimento, não existe ainda aparato estatístico que faça isso de maneira simplificada.” Por essa razão, a primeira missão da equipe foi reduzir a análise aos trechos de DNA que pudessem dar maior confiabilidade às estimativas. O grupo trabalhou basicamente com as diferenças

evolução

genética

pESQUISA FAPESP 193 

_  47


genéticas conhecidas como polimorfismos de nucleotídeo único – single nucleotide polymorphisms ou SNP. Os SNPs representam diferenças genéticas em que apenas uma letra da sequência foi trocada. “Tivemos que filtrar os dados para trabalhar só com os mais palpáveis e concretos”, explica Cerqueira. seleção de dados

O ponto de partida foi identificar 346 SNPs distribuídos em 67 genes, pedaços de genes desativados (pseudogenes) e regiões intergênicas (nem todos os segmentos de DNA constituem genes, alguns só ocupam espaço na sequência, com função ainda não esclarecida). Todos esses SNPs estavam em regiões do genoma associadas à pigmentação de cabelos, olhos e pele. O passo seguinte foi ver quais desses SNPs já tinham seu efeito genético descrito na literatura. Dos 346, sobraram 124. Ainda assim, havia um problema: o genoma se compõe de duas cópias de cada gene, uma do pai e outra da mãe. Quando as versões do gene são diferentes entre si, predizer o efeito que a combinação terá no organismo é bem complicado. Por isso, os pesquisadores se concentraram nos SNPs cujos alelos (versões diferentes encontradas simultaneamente no organismo) estivessem presentes nas duas cópias do mesmo trecho de cada genoma. “Perdemos uma boa quantidade de informações fazendo isso, mas optamos por essa abordagem mais conservadora”, conta Cerqueira. 48 

_ março DE 2012

Um dos desafios da genética é entender como interagem os grandes conjuntos de genes Uma coisa é certa. A metodologia usada é excelente para determinar se o indivíduo tem ou não sardas, acúmulo de pigmento comum em loiros e ruivos. A taxa de acertos na previsão para os 11 genomas cujo fenótipo era bem conhecido (a identidade do proprietário era sabida) foi de impressionantes 91%. Contudo, conforme as sutilezas aumentaram, o nível de acerto diminuiu. O método previu corretamente em 64% dos casos o tom de pele, dividido em duas categorias: claro e escuro. A taxa de predição foi de 44% para a cor do cabelo (preto, castanho, ruivo e loiro), 36% para a cor dos olhos (preto, castanho, verde e azul). Quando todas as características foram levadas em consideração, a média de acerto ficou em 59%. Os pesquisadores também calibraram o nível de acerto incluindo 19 genomas de indivíduos cuja etnia permitia estimar o provável fenótipo. Com uma base de 30 genomas, os índices de acerto mudaram

um pouco. Diminuíram ligeiramente para sardas (83%), pele (60%) e cabelos (42%). Mas aumentaram para os olhos (67%), elevando a média final para 63%. A primeira impressão que o estudo deixa é de que não dá mais para classificar como impossível prever traços físicos com base na análise do DNA. E a segunda é que ainda falta avançar bastante para que o nível de precisão melhore a ponto de o teste se tornar útil. Trata-se de uma tecnologia que pode revolucionar, por exemplo, a ciência forense. Imagine se, a partir de uma amostra de DNA encontrada numa cena de crime, a polícia pudesse criar um retrato detalhado de um suspeito. Ainda estamos longe desse estágio tecnológico, mas, para Cátira, já terminou a fase do “e se pudéssemos?” e estamos chegando à etapa do “como faremos?”. “O grande desafio é entender como funciona a interação entre os vários genes e seus alelos, bem como de seus produtos, as proteínas”, afirma Cátira. “Em outras palavras, o quanto o efeito de um alelo que se encontra em determinado ponto da rota é alterado pela presença de outra variante em outro gene da rede de pigmentação. Os estudos dessas conexões estão só começando a surgir e não fazemos ideia de como tudo está conectado, resultando em determinado fenótipo”, diz a pesquisadora da UFRGS. Como complicação adicional, ainda é preciso levar em conta os efeitos epigenéticos – a influência de fatores ambientais sobre os padrões de expressão de certos genes sem alterar o DNA em si. “Os desafios permanecem grandes”, comenta Cátira. “Mas, como o conhecimento científico cresce exponencialmente, tenho esperança de que avanços importantes ocorram nos próximos anos.” Retratos da evolução

Enquanto a tecnologia não chega ao ponto de ajudar no trabalho policial, os pesquisadores já começam a usá-la para tentar compreender melhor como se deu a evolução do gênero Homo. Afinal de contas, estudos como esse ajudam a verificar o quanto a diferença de pigmentação entre os grupos humanos é resultado de pressão exercida pela seleção natural ou consiste em variações surgidas ao acaso, neutras do ponto de vista evolutivo. Em trabalho anterior, ligado a outra característica, o grupo de Cátira havia


mostrado que um gene associado à configuração dos membros em seres humanos se mantém exatamente igual em mais de uma centena de amostras de DNA, vindas de pessoas de diversas partes do globo. Esse gene acumulou 16 alterações desde que os seres humanos e os chimpanzés se separaram na árvore evolutiva e permaneceu idêntico nos neandertais – Homo neanderthalensis, espécie aparentada do Homo sapiens, com quem conviveu até cerca de 30 mil anos atrás, antes de desaparecer. A conclusão é que esse gene é extremamente importante e por isso foi conservado igual por tanto tempo, dada a pressão evolutiva que existe sobre ele. Agora os pesquisadores também podem fazer análises semelhantes com relação à pigmentação da pele, dos olhos e dos cabelos e ver que papel evolutivo os genes relacionados a essas características podem ter tido. Antes mesmo de qualquer análise do DNA, muitos pesquisadores já pensavam que deve ter havido grande pressão evolutiva para que os humanos vivendo sob o intenso sol africano tivessem mais melanina na pele – e mais proteção contra a radiação solar nociva –, enquanto quem vivia no norte da Europa dificilmente precisasse de grandes quantidades desse pigmento para escapar dos danos causados pela exposição ao sol. Estudos como o do grupo de Cátira ajudam a compreender o que moldou essa e outras adaptações. Um dos resultados surpreendentes do novo estudo foi mostrar que entre os neandertais possivelmente já havia diferenças na cor da pele e dos cabelos. A análise

das variantes genéticas dos neandertais – foram sobrepostos trechos do genoma de três fêmeas para obter um genoma completo – sugere que uma era ruiva e duas tinham cabelo castanho e pele mais escura. Todas tinham olhos castanhos. Esse resultado contrasta com o de um trabalho anterior, conduzido por Carles Lalueza-Fox, da Universidade Pompeu Fabra, em Barcelona. Em um estudo publicado em 2007 na Science, o grupo espanhol mostrou que o material genético de dois neandertais – um encontrado na Espanha e outro na Itália – apresentavam alterações genéticas similares às que determinam pele clara e cabelos ruivos em seres humanos. “Temos conhecimento de

Neandertais apresentavam variações na cor da pele, olhos e cabelos semelhantes às dos humanos

poucos genomas ou de porções do genoma desses hominídeos e, mesmo assim, essa variação aparece”, diz Cátira. Se estiver correta, a análise da equipe da UFRGS indica que entre os neandertais a pigmentação poderia variar de modo semelhante ao que ocorre com os seres humanos. “Isso seria bem razoável e indicaria que essa característica pode ser típica do gênero Homo e não da espécie humana”, comenta Cátira. Ela própria, porém, adverte que é preciso ter cautela na interpretação dos dados. “Não podemos descartar problemas metodológicos, como contaminação com DNA humano e troca de bases post-mortem, no sequenciamento de genomas de espécies extintas”, completa. Essa observação toca num ponto importante: há limitações na análise do material genético de fósseis. Por exemplo, talvez jamais seja possível investigar o DNA dos primeiros seres humanos que colonizaram o que hoje é o Brasil e que teriam vindo da Ásia pelo estreito de Bering entre 20 mil e 12 mil anos atrás. “O problema é que o clima daqui não permite preservar DNA da mesma forma que no frio da Europa”, explica Fabricio Rodrigues dos Santos, biólogo da Universidade Federal de Minas Gerais. “Se por muita sorte encontrarem algum esqueleto preservado em algum lugar muito especial na América do Sul com mais de 8 mil anos e houver DNA, pode ser possível sim prever alguns fenótipos.” E quanto a Luzia – o fóssil humano encontrado nos anos 1970 pela arqueóloga francesa Annette Laming-Emperaire em Lagoa Santa, Minas Gerais – que hoje detém o recorde de mais antigo da América, com estimados 11.400 a 16.400 anos de idade? “No caso de Luzia, diria que é impossível, pois tentaram várias vezes, enviaram aos Estados Unidos e à Europa, mas nunca conseguiram gerar nenhuma sequência de DNA”, diz Santos. Por mais que a genética tenha o poder de iluminar o passado humano, algumas lacunas inevitavelmente permanecerão. Pelo menos até a próxima grande revolução científica. n Artigo científico CERQUEIRA, C.C.S.; et al. Predicting Homo pigmentation phenotype through genomic data: From Neanderthal to James Watson. American Journal of Human Biology. No prelo. pESQUISA FAPESP 193 

_  49


_ interação ambiente-atmosfera

A equação do clima Estudo avalia o impacto real de vegetações nativas e cultivadas das Américas sobre a temperatura global Evanildo da Silveira

Q

uantificar o real efeito do desmatamento e das atividades agrícolas na temperatura média do planeta é o principal resultado de um trabalho realizado por pesquisadores do Brasil e dos Estados Unidos e publicado na edição de março da revista Nature Climate Change. O conhecimento mais acurado do impacto dos ecossistemas terrestres sobre o clima se tornou possível agora porque os pesquisadores incluíram nos cálculos dois fenômenos que costumavam ser deixados de lado: a evapotranspiração (perda de água por evaporação e transpiração das plantas) e a absorção de energia solar pela vegetação. Esses fenômenos de natureza biofísica influenciam a regulação do clima local e afetam o clima global, mas eram desconsiderados. Os trabalhos anteriores, usados para traçar políticas de proteção do ambiente, só incluíam os dados sobre absorção ou liberação de gases de efeito estufa, os chamados mecanismos biogeoquímicos, que têm efeitos globais. No estudo da Nature Climate Change os pesquisadores conseguiram condensar os efeitos biofísicos e biogeoquímicos num único índice, mais abrangente, batizado de climate regulation values (CRV). “Esse índice contabiliza os estoques de carbono e sua troca líquida nos ecossistemas, a emissão de óxido nitroso e de metano e considera também os efeitos da evapotranspiração e da absorção de energia solar associados a cada tipo de vegetação”, explica Santiago Cuadra, pesquisador do Centro Federal de Educação Tecnológica Celso Suckow da Fonseca do Rio de Janeiro (Cefet/RJ), um dos autores do artigo. Os resultados obtidos com o novo índice reforçam a importância da proteção às florestas 50 

_ março DE 2012

tropicais e mostram que as matas boreais têm um efeito relativamente pequeno sobre a temperatura média do planeta. Indicam também que as culturas para a produção de bioenergia – como a da cana-de-açúcar, do milho e das gramíneas Miscanthus giganteus e Panicum virgatum, usadas para gerar etanol – podem apresentar impacto positivo sobre o clima, quando consideradas a perda de água, que reduz a temperatura na área dessas plantações, e a absorção da energia do sol pelas plantas. “É importante ressaltar que, de modo geral, as matas nativas têm um papel de resfriamento próximo ao solo maior do que as culturas agrícolas e bioenergéticas”, explica o pesquisador Marcos Heil Costa, da Universidade Federal de Viçosa (UFV), outro autor do artigo. “A exceção mais notória são as coníferas canadenses, pois devido à grande quantidade de neve nessa região a presença das árvores tende a aquecer a região, ao invés de resfriar.” florestas e plantações

O trabalho é um desdobramento de outro anterior. Em um artigo publicado em 2000 os pesquisadores haviam demonstrado que, em regiões sob forte desmatamento, como a Amazônia, o aquecimento causado por meio da menor liberação de água e absorção de radiação solar é várias vezes superior ao que é originado pela elevação da concentração de gases de efeito estufa na atmosfera. “Outros autores confirmaram esses resultados para diversos tipos de mudança de uso do solo”, conta Costa. “A discussão evoluiu ao ponto de propormos neste artigo o CRV para os ecossistemas naturais e agrícolas, que é compatível com o índice de dióxido de carbono equivalente de efeito estufa.”


john lee / gettyimages

Floresta amazônica: efeito maior que o estimado antes da regulação do clima

O CRV demonstra qual seria o aumento de gases de efeito estufa na atmosfera e quanto seria alterada a temperatura próximo à superfície do solo por causa da perda de água e absorção de energia do sol pelas plantas. Dessa forma permitiu comparar como as diferentes vegetações (naturais e agrícolas) influenciam o clima, assim como quais delas são mais efetivas em reduzir as alterações climáticas. No total foi avaliado o impacto de 18 ecossistemas das Américas: 12 naturais e seis agrícolas com potencial para a produção de biocombustíveis. Entre os primeiros estão a floresta amazônica e o cerrado no Brasil e as matas tropicais decíduas (que perdem as folhas no outono) da América do Sul. Dos Estados Unidos foram incluídas as florestas temperadas de coníferas das montanhas do oeste e da costa noroeste, as decíduas temperadas no leste e as mistas no nordeste, além do deserto do sudoeste,

da pradaria das grandes planícies e do chaparral (vegetação rasteira) da Califórnia. No Canadá, foram analisadas florestas mistas no sudeste e a boreal, além da tundra. Quanto às plantações voltadas para a produção de bioenergia, foram estudadas a de cana-de-açúcar no Brasil e a de soja no Brasil e nos Estados Unidos. Lá foram pesquisadas ainda duas gramíneas, Miscanthus giganteus e Panicum virgatum, usadas na fabricação de biocombustíveis. Todos os 18 ecossistemas foram comparados com uma superfície sem cobertura vegetal, que serviu de referencial. O grupo avaliou o quanto cada sistema contribuiria num período de 50 anos para elevar a temperatura da atmosfera. Os resultados mostram que, para a maioria deles, a perda de água e a absorção de energia do sol aumentam o valor dos serviços de regulação do clima, o CRV. Isso significa que a remoção da cober-

tura vegetal desses ecossistemas eleva a temperatura da atmosfera por emitir gases de efeito estufa e também por reduzir o resfriamento provocado pela presença da vegetação. “Para a floresta amazônica, o aumento foi de 12%”, revela Kristina J. Anderson-Teixeira, da Universidade de Illinois, a autora principal do artigo. “Para o cerrado, o aumento foi de 9%. Mas para alguns ecossistemas eles reduziram o valor total do serviço. Isso ocorreu, por exemplo, com as matas boreais do Canadá (-115%) e o deserto do sudoeste dos EUA (-123%).” n Artigo científico ANDERSON-TEIXEIRA, K.J. et al. Climateregulation services of natural and agricultural ecoregions of the Americas. Nature Climate Change. 8 jan. 2012. pESQUISA FAPESP 193 

_  51


ERIC HELLER / SCIENCE PHOTO LIBRARY

A nova onda dos qubits

52 

_ março DE 2012


_ discórdia quântica

Sistemas à temperatura ambiente podem ter uma porção quântica útil para a computação Marcos Pivetta

P

Modelo computacional de ondas quânticas: a dualidade partícula-onda da matéria gera os ganhos potenciais do mundo quântico

or que um computador quântico poderia, em tese, realizar em minutos cálculos que nem em bilhões de anos os mais potentes supercomputadores conseguiriam fazer? Até 2007 parecia não haver outra resposta possível a essa pergunta a não ser atribuir as vantagens de uma máquina impulsionada por qubits, os bits quânticos, ao emaranhamento ou entrelaçamento quântico, misterioso e estranho fenômeno que aumentaria exponencialmente a capacidade de processamento de dados. Partículas, átomos ou moléculas descritos como emaranhados se encontram tão fortemente ligados entre si — os físicos usam o termo correlacionados — que são capazes de trocar informação independentemente de estarem lado a lado ou a milhares de quilômetros de distância. Apesar de poderoso, o entrelaçamento é também frágil e apenas se mantém em situações especiais, em sistemas extremamente controlados, que não interagem com o ambiente externo. Nos últimos cinco anos, um novo conceito para aferir correlações não previstas pelas leis da física clássica, a discórdia quântica, ganhou terreno e hoje fornece indícios de que talvez seja possível construir dispositivos quânticos a partir de componentes sem nenhum traço de emaranhamento. E não é só isso. Átomos e partículas com certo nível de discórdia podem conservar suas propriedades quânticas à temperatura ambiente, em sistemas macroscópicos, e em situações em que exista ruído, aqui entendido como a influência do meio externo no sistema. Derivada de um conceito similar da teoria da informação, a discórdia é uma medida estatística usada para determinar se existe algo de quântico num sistema físico, como um conjunto de elétrons ou moléculas. Os cientistas realizam uma série de medidas para descobrir se há propriedades tipicamente quânticas,

computação

Física

tecnologia da informação

pESQUISA FAPESP 193 

_  53


como a chamada dualidade partícula-onda, capazes de estabelecer um canal de comunicação entre alguns dos componentes do sistema. Essa ligação pode ser o próprio emaranhamento, a forma de conexão quântica mais forte que se conhece (embora de difícil manutenção), ou outros tipos de correlações quânticas mais fracas. A natureza exata dessas correlações mais tênues ainda não é conhecida pelos pesquisadores, mas há evidências de que elas podem ser mais duradouras que o emaranhamento e suficientes para transmitir informação. “Antes do conceito de discórdia, muitos pesquisadores pensavam que sistemas sem emaranhamento não podiam ser quânticos”, diz Roberto Serra, da Universidade Federal do ABC (UFABC), um dos físicos brasileiros que mais têm se dedicado ao tema dentro do Instituto Nacional de Ciência e Tecnologia de Informação Quântica (INCT-IQ), iniciativa mantida conjuntamente pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e pela FAPESP. “Mas estamos mostrando que sistemas com algum tipo de discórdia (e sem emaranhamento) podem ser robustos e servir de base para aplicações em metrologia e computação.” A discórdia quântica engloba, portanto, toda e qualquer correlação que está em desacordo (daí o nome do conceito) com as leis da física newtoniana, visíveis em nosso dia a dia. A quantidade de discórdia de um sistema é dado por uma equação matemática. “Se a medida da discórdia for diferente de zero, o sistema tem algo de quântico”, explica o físico Felipe Fanchini, da Universidade Federal de Ouro Preto (Ufop), que tem publicado trabalhos teóricos sobre o novo conceito. Com essa noção de discórdia na cabeça, físicos de todo o mundo, com destaque para alguns trabalhos recentes de pesquisadores brasileiros, estão encontrando algo de quântico em sistemas antes vistos como estritamente clássicos, ou seja, que aparentemente eram regidos somente pela física newtoniana. Uma equipe de cientistas do INCT-IQ publicou dois artigos praticamente em seguida no segundo semestre do ano passado na revista Physical Review Letters (PRL) com resultados de experimentos que exploram esse novo conceito. 54 

_ março DE 2012

A diferença entre bit e qubit BIT

QUbit É a menor unidade

Análogo quântico do bit

de informação dos

clássico. Pode assumir dois

computadores atuais.

valores simultaneamente, 

Representa apenas

0 e 1. Essa característica

um de dois valores

amplia a capacidade de

possíveis, 0 ou 1

fazer cálculos em paralelo

A origem dos ganhos quânticos Os efeitos da superposição de estados e da interferência de ondas superposiçÃO Um qubit pode ser 0 e 1 ao mesmo tempo porque sistemas quânticos exibem a dualidade partícula-onda. Se a onda passa concomitantemente pelas fendas 0 e 1, a superposição ocorre

interferência

A dualidade partícula-onda

Alguns sistemas com discórdia quântica parecem ter a capacidade de codificar e processar a informação Num artigo de 12 de agosto, Serra e colaboradores do Instituto de Física de São Carlos da Universidade de São Paulo (IFSC-USP), do Centro Brasileiro de Pesquisas Físicas (CBPF), no Rio de Janeiro, e da Embrapa dão conta de que mediram pela primeira vez de forma direta a discórdia num sistema quântico a cerca de 26 graus Celsius criado com

As fendas dão origem a dois tipos de ondas derivadas da onda inicial. Elas interagem. Podem se cancelar e levar ao resultado final 0. Ou se somar numa onda maior, que resulta na resposta 1 (figura)

o emprego da técnica de ressonância magnética nuclear. Trata-se de um embrião do que um dia pode vir a ser um computador quântico líquido. No laboratório do CBPF os pesquisadores codificaram dois qubits em moléculas de clorofórmio (CHCl3), um composto incolor, denso e adocicado usado hoje como solvente e matéria-prima para a produção de precursores de polímeros como o teflon. A rigor codificaram um bit quântico no spin do núcleo do átomo de hidrogênio e outro no de carbono ao aplicarem um campo magnético de 12 teslas, milhões de vezes maior do que o da Terra, no sistema. O spin é uma propriedade fundamental das partículas elementares, como os elétrons e os fótons, e dos núcleos dos átomos e costuma ser representada por uma seta para cima ou para baixo. “Usamos pulsos de campo magnético para manipular o spin do núcleo”, afirma o físico Diogo de Oliveira Soares Pinto, do grupo dos professores Tito Bonagamba e Eduardo Azevedo, da USP de São Carlos, que participou do experimento. “Nas condições em que fizemos o trabalho é impossível haver emaranhamento.”


A discórdia quântica Correlações clássicas

Correlações quânticas (discórdia) Dois sistemas correlacionados, A e B, podem ter elementos em comum, uma zona de intersecção que os conecta, como mostra a ilustração esquemática de um diagrama de Venn (acima). Essas ligações são chamadas pelos físicos de correlações. Todas as correlações que estão em desacordo com as leis da física clássica compõem a discórdia quântica. Mesmo ínfima, a discórdia parece ter a capacidade de transmitir informação e talvez possa ser útil para a criação de dispositivos quânticos

Em 30 de setembro, um segundo artigo do mesmo grupo na PRL apresentou outro resultado interessante, derivado novamente de observações feitas no sistema de dois qubits criado nas moléculas de clorofórmio. Os pesquisadores mediram mudanças súbitas no comportamento da discórdia quântica em razão do contato com o meio ambiente. Viram como os efeitos quânticos do sistema iam sumindo devido a flutuações e ruídos do ambiente térmico. Depois de um tempo, as interações podiam desestruturar os dois qubits, causando uma perda progressiva de coerência do sistema. No experimento, os físicos perceberam que a discórdia parece ser bastante resistente a ambientes que causam perturbações no sistema. Nos cerca de cinco mililitros de clorofórmio usados no experimento, apenas uma em cada 1 milhão de moléculas do composto carregava os qubits codificados em seus átomos. Apesar de “diluído” num sistema que é quase totalmente clássico, o caráter quântico da amostra de clorofórmio se preserva e pode se útil para o desenvolvimento

de aplicações. “Qualquer processo de comunicação precisa ter o controle sobre as formas de correlação de um sistema”, afirma Ivan Oliveira, do CBPF, um dos coautores dos dois estudos citados. “Precisamos separar a parte clássica e a quântica da informação.” Mais recentemente ainda, em 10 de fevereiro deste ano, os brasileiros publicaram um terceiro artigo sobre discórdia na PRL. Dessa vez eles trabalharam com um sistema óptico, para o qual criaram uma forma simples e direta de verificar se há ou não discórdia em fótons, partículas de luz. Foram codificados dois qubits usando uma propriedade dos fótons, a sua polarização, se horizontal ou vertical, e desenvolvido um esquema de registrar, como uma só medida, se há ou não correlações quânticas no sistema, um estratagema denominado testemunha da discórdia. Normalmente é preciso fatiar o sistema em várias partes, como se faz numa tomografia para fins médicos, e realizar ao menos quatro medidas para descobrir se há uma conexão quântica entre os fótons.

Um computador líquido Dois qubits são codificados manipulando o spin do núcleo de átomos de carbono e hidrogênio do clorofórmio

Ressonância

spins alinhados spin 1

Nitrogênio líquido Hélio Líquido Tubo de ensaio Contém 5 ml de clorofórmio (CHCl3)

Bobina supercondutora Campo eletromagnético

O spin do núcleo dos átomos de carbono e hidrogênio se alinha com a direção vertical do campo. Nessa temperatura, aproximadamente metade fica com o spin para cima e metade para baixo

bobina

Gerador de radiofrequência

Gerador de radiofrequência

bobina

bobina

Gerador de radiofrequência

Se uma frequência de rádio na direção horizontal é gerada, alguns spins podem mudar de sentido, funcionar como um qubit e codificar informação

spin 0

De volta à configuração original

bobina

Spins alterados

Gerador de radiofrequência

infográficos  tiago cirillo  fonte roberto serra

No aparelho de ressonância magnética nuclear, a amostra de clorofórmio é exposta a um campo magnético de 12 teslas. A bobina fica resfriada a -269°C, mas o composto está a 26°C

Quando a frequência deixa de ser aplicada, os spins voltam à configuração original e emitem um pulso de rádio. Assim, o sistema é manipulado

pESQUISA FAPESP 193 

_  55


Um conceito ignorado por anos

A ideia da discórdia quântica foi inicialmente proposta em 2001 por dois grupos de fisicos que desenvolveram o conceito de forma independente, o chefiado por Wojciech H. Zurek, do Laboratório Nacional de Los Alamos, nos Estados Unidos, e o liderado por Vlatko Vedral, da Universidade de Oxford, na Inglaterra. A proposta não causou muito impacto na comunidade científica em seus primeiros anos de vida. Era uma ideia bastante abstrata sobre um campo de estudo cujo centro principal de interesse girava historicamente em torno do emaranhamento, misterioso fenômeno que Albert Einstein descrevera como tendo uma “ação fantasmagórica a distância”. Quando em 2007 surgiram os primeiros trabalhos experimentais mostrando que sistemas à temperatura ambiente com discórdia (e sem emaranhamento) podiam transmitir informação por meio de bits quânticos, boa parte dos físicos foi reler os trabalhos de seis anos atrás de Zurek e Vedral. Houve um boom de interesse pelo tema. “A discórdia quântica deu uma nova luz a questões que estavam sendo debatidas há anos”, diz o físico Amir Caldeira, da Universidade Estadual de Campinas (Unicamp), coordenador do INCT-IQ e autor de trabalhos sobre discórdia. Segundo Vlatko Vedral, nem todo sistema que apresenta discórdia quântica pode ser manipulado para gerar aplicações em computação ou outras áreas. “Precisamos ser cuidadosos ao escolher os sistemas com que vamos trabalhar. Essa questão ainda está em aberto”, afirma o físico de Oxford. “Para entendermos a diferença que há entre o mundo clássico e o quântico, para entendermos por que um gato não pode estar em dois lugares, mas os átomos podem, acho que temos de ser capazes de discriminar os estados que têm discórdia e os que não têm.” Por ora, os físicos sabem apenas que certos sistemas com discórdia (e sem entrelaçamento), como as moléculas de clorofórmio ou os fótons, podem processar os tão desejados bits quânticos. 56 

_ março DE 2012

A caixa preta de US$ 10 milhões Do tamanho de uma sala, máquina com 128 qubits emaranhados se intitula o primeiro computador quântico comercial

Quando se contar a história da

fica protegido das interferências do

computação quântica, o dia 25 de maio

meio externo por estar abrigado em

de 2011 provavelmente será lembrado.

um compartimento fechado com

Nesta data, a companhia canadense

o dobro da altura de um homem

D-Wave Systems anunciou, em meio

e 10 metros quadrados de área.

a um certo ceticismo da comunidade

Dentro desse invólucro com ares

acadêmica, a venda do autointitulado

de um cubo irregular há sistemas

primeiro computador quântico

de resfriamento e proteção contra

produzido para fins comerciais. Em vez

a influência de campos magnéticos

de chip de silício como os micros atuais,

externos, que são os responsáveis por

o D-Wave One, nome da máquina, faz

garantir as melhores condições para o

cálculos explorando as propriedades

processamento dos qubits.

quânticas de um processador com

“O chip quântico é composto por 128

128 qubits, implementados por um

anéis supercondutores iguais, cada um

conjunto de anéis supercondutores

com o tamanho de 100 micrômetros

de corrente mantidos a 30 milikelvin,

(um centésimo de milímetro)”, diz

temperatura perto do zero absoluto. A

o físico teórico Frederico Brito, da

primeira unidade do computador custou

Universidade Federal de Pernambuco

supostos US$ 10 milhões à empresa

(UFPE), que trabalhou na empresa

aeronáutica americana Lockheed

D-Wave entre maio de 2008 e julho de

Martin, que o instalou no final do ano

2009. Quando gira nos anéis no sentido

passado no centro de computação

anti-horário, a corrente representa um

quântica da Universidade da Califórnia

spin para cima (ou o 0 da computação

do Sul (USC, na sigla em inglês), no

clássica). Quando corre no outro

campus de Marina Del Rey.

sentido, faz as vezes do spin para

O D-Wave One é, literalmente, uma

baixo (ou o 1). Um dispositivo presente

grande caixa preta. O processador,

em cada anel e denominado junção

que mede uns poucos centímetros,

Josephson gera efeitos quânticos, como

O qubit é o análogo quântico do bit clássico, definido como a menor unidade em que a informação pode ser codificada, armazenada e transmitida nos computadores atuais e nos sistemas de telecomunicações, como fibras ópticas ou redes sem fio. Há, no entanto, diferenças significativas entre os dois conceitos. Num dado momento, um bit clássico, também denominado dígito binário, só pode se encontrar em apenas um de dois valores ou estados possíveis: 0 ou 1, por exemplo. Nos computadores de hoje em dia o 0 é representado pela interrupção da voltagem num circuito (estado off) e o 1 pela liberação da corrente (estado on). Um qubit é mais do que isso. Ele pode, simultaneamente, representar os valores equivalentes a 0 e 1. Pode estar numa

Os Projetos 1. Instituto Nacional de Ciência e Tecnologia de Informação Quântica nº 2008/57856-6  2. Informação quântica e decoerência nº 2005/04471-1  modalidades 1. Projeto Temático 2. Programa Jovem Pesquisador Co­or­de­na­dores 1. Amir Caldeira – Unicamp 2. Roberto Serra – UFABC investimento 1. R$ 1.384.811,24 (FAPESP) e R$ 5.700.000,00 (CNPq) 2. R$ 68.321,95 (FAPESP)

fotos  d-wave

“Agora, com apenas uma medida, conseguimos dizer se poderia haver ou não discórdia”, explica Stephen Walborn, da Universidade Federal do Rio de Janeiro (UFRJ), coautor do estudo.


O invólucro negro que protege o computador quântico D-Wave One e seu chip de 128 qubits: máquina tem o dobro da altura de um homem, ocupa área de 10 metros quadrados e funciona perto da temperatura do zero absoluto

seguida são promovidas mudanças tão lentamente no sistema que essas alterações são capazes de manter as propriedades quânticas do dispositivo sem fazê-lo funcionar no nível seguinte de energia. No caso do computador da D-Wave as alterações consistem em fazer a corrente mudar de sentido, do horário para o anti-horário, ou vice-versa.

tunelamento e interferência de ondas,

venda de seu primeiro computador, na

que potencializam a capacidade teórica

prestigiada revista científica britânica

da máquina de resolver problemas.

Nature. No trabalho, os cientistas

máquina já se encontram operacionais,

Cerca de 85% dos qubits da

da companhia dão detalhes sobre

segundo Daniel Lidar, diretor do

é também uma caixa preta no sentido

a técnica usada para gerar os 128

centro de computação quântica da

metafórico. Pouca gente sabe como

qubits. A máquina explora a chamada

USC. “Ainda não sabemos o quão

a máquina funciona e se há algo de

computação quântica adiabática.

potente é o processador”, afirma

quântico realmente nela. Para tirar

De forma simplificada, esse tipo

Lidar. “Pretendemos estudá-lo com

dúvidas e vencer resistências da

de computação consiste em fazer um

muita atenção.” O D-Wave One foi

comunidade acadêmica, a empresa

sistema trabalhar em seu menor nível

desenvolvido para procurar as melhores

canadense publicou um artigo em 12

de energia possível, no chamado estado

soluções para certos tipos de problema,

de maio do ano passado, menos de

fundamental, geralmente próximo

como o reconhecimento de imagens e o

duas semanas antes da divulgação da

da temperatura do zero absoluto. Em

enovelamento de proteínas.

superposição de estados, uma estranha propriedade quântica que potencializa a realização de cálculos em paralelo. “Os qubits aumentam de maneira exponencial a capacidade de computação”, comenta Roberto Serra. “De forma simplificada, podemos dizer que dois qubits equivalem a 4 bits, 3 qubits a 8 bits, 4 quibits a 16 bits e assim por diante.” A superposição de estados é uma capacidade típica dos sistemas quânticos (sejam eles formados por átomos, elétrons, fótons ou moléculas) de se comportar concomitantemente como partícula e onda. É a tal da dualidade partícula-onda. A situação se torna menos surreal quando se toma como exemplo a onda criada por uma pedra arremessada num lago. Ela causa oscilações na

superfície da água na forma de círculos concêntricos que podem, ao mesmo tempo, atravessar duas pontes vizinhas na beira do lago. Nesse caso, se uma ponte for a representação do número 0 e outra do 1, parte da onda é 0 e parte é 1. A onda é 0 e 1 ao mesmo tempo. Mas um computador quântico que desse duas respostas para um problema seria de pouca valia. Afinal, apenas uma delas é a certa. Aí entra em ação um segundo fenômeno quântico, a interferência de ondas. Retomando o exemplo do lago, depois de atravessar as duas pontes, a onda 1 e a onda 0 se reencontram. Essa interação pode ser destrutiva, as ondas se cancelam e o resultado final é 0. Ou construtiva, as ondas se somam e a resposta é 1. Os chamados algoritmos quânticos são

instruções matemáticas, espécie de programas, que aumentam a probabilidade da superposição de estados e da interação de ondas de levarem à resposta certa ao final do processamento de dados. Estranho? Sim. Bem-vindo ao mundo quântico. n

Para alguns físicos, o D-Wave One

Artigos científicos 1. AGUILAR. G.H. et al. Experimental estimate of a classicality witness via a single measurement. Physical Review Letters.  v. 108, n. 6, p. 063601-1/ 063601-4. 10 fev. 2012. 2. AUCCAISE, R. et al. Environment-induced sudden transition in quantum discord dynamics. Physical Review Letters. v. 107, n. 14, p. 140403-1/ 140403-5. 30 set. 2011. 3. AUCCAISE, R. et al. Experimentally witnessing the quantumness of correlations. Physical Review Letters. v. 107, n. 7, p. 070501-1/ 070501-5. 12 ago. 2011. pESQUISA FAPESP 193 

_  57


_ v ida extraterrestre

Minúsculos, mas de peso Organismos invisíveis a olho nu demonstram capacidade de resistir a viagens interplanetárias texto  

Maria Guimarães 

E

ilustração  Drüm

les sobrevivem a condições impensáveis para qualquer outro terráqueo. Fazem seu lar em águas hipersalinas, desertos tórridos, crateras de vulcões e nas geleiras antárticas. São seres vivos que só se pode enxergar ao microscópio, mas gigantes naquilo que revelam aos astrobiólogos como Claudia Lage, professora da Universidade Federal do Rio de Janeiro (UFRJ). “A estrutura genética de microrganismos como vírus, bactérias e arqueias é tão diversificada que eles poderiam ter sido formados em lugares muito diferentes do Universo”, afirma. A ideia tem raízes na panspermia, hipótese que postula a origem da vida em múltiplos pontos do Universo, não necessária e exclusivamente na Terra. A super-heroína da área é a bactéria Deinococcus radiodurans, que resiste a altas doses de radiação e se revelou, em simulações feitas em aceleradores de partículas, capaz de suportar viagens pelo espaço pousada em fragmentos de poeira (ver Pesquisa FAPESP nº 176). Sem a proteção de uma nave espacial, o ambiente interplanetário não é lugar para seres vivos: doses altíssimas de radiação ultravioleta e raios X, além de bombardeios impiedosos de partículas aceleradas por explosões solares, tornam impossível a existência de qualquer forma de vida.

58 

_ março DE 2012

Claudia e o biólogo Ivan Paulino Lima, também da UFRJ, em parceria com pesquisadores da Universidade de São Paulo (USP), da Itália e do Reino Unido, concluíram agora outro estudo mostrando que a Deinococcus atravessaria sem grandes danos as partículas lançadas pelo vento solar, entre as quais os prótons são as mais nocivas. A resistência permitiria que essas bactérias, montadas na poeira que está disseminada pelo Universo, viajassem espaço afora por milhões de anos. Tempo suficiente para chegar de Marte à Terra, concluiu o estudo publicado no final de 2011 na revista Astrobiology, a partir de experimentos realizados em aceleradores de partículas na Itália e no Reino Unido, que simularam as condições típicas de viagens interplanetárias com irradiação de prótons, íons de carbono e elétrons no vácuo, para microrganismos tanto viajando por conta própria como a bordo da poeira liberada de cometas ou asteroides. O trabalho demonstrou que as energias mais baixas, características dos ventos solares comuns, não têm nenhum efeito sobre as Deinococcus, mesmo que desprotegidas. As explosões solares liberam energias maiores e mais letais, mas, dependendo de sua intensidade, basta que a bactéria esteja aderida a grãos, mesmo pequenos, para se proteger do bombardeio de partículas. “Essas energias não são frequentes


Sobrevive a radiação ultravioleta emitida por estrelas e planetas Resiste às partículas dos ventos solares

Pode ter condições para viver em ambientes completamente distintos da Terra, como Titã

BACTÉRIA EXTREMÓFILA Deinococcus radiodurans

Sujeita a simulações de ambientes espaciais, essa bactéria, descoberta nos anos 1950 em alimentos enlatados esterilizados com radiação, se revela capaz de viagens interplanetárias

o suficiente para impedir que as bactérias sobrevivam”, completa Ivan Paulino Lima, atualmente na Califórnia para um pós-doutorado na agência espacial norte-americana (Nasa).

infográficos  tiago cirillo

Perigo no espaço

Uma constatação importante do estudo é que para esses microrganismos as partículas espaciais não representam o maior obstáculo. A poeira cósmica, portanto, é essencial não para proteger as bactérias dos bombardeios de prótons, mas da radiação ultravioleta a que Deinococcus já revelou resistir. “Estrelas são verdadeiras usinas de radiação”, afirma a pesquisadora. O estudo mostrou que, ao fim de uma viagem interplanetária, a superbactéria teria tempo de sobra para pousar na Terra, mesmo depois de passar pela vizinhança do nosso Sol: de acordo com essas pesquisas, ela resistiria mais de um ano – pelo menos 420 dias – às doses de radiação ultravioleta típicas da órbita terrestre, mesmo sem a proteção de uma atmosfera. O limite de tempo não foi definido pelo fôlego atlético das potenciais viajantes extraterrestres, mas pelo perío-

Pode viajar pelo espaço por até milhões de anos

do de que os pesquisadores dispunham para os testes no Laboratório Nacional de Luz Síncrotron (LNLS), acelerador de partículas em Campinas, no interior paulista. É possível que elas possam resistir muito mais tempo. Outro trabalho recente do grupo, igualmente publicado na Astrobiology, ampliou as possibilidades de sobrevivência no espaço: mostrou que essa bactéria não seria o único ser vivo a sobreviver nas inóspitas condições características das regiões próximas a estrelas e planetas, ainda mais letais do que os bombardeios na zona interplanetária. Duas outras espécies de microrganismos, Natrialba magadii e Haloferax volcanii, também aguentam altas doses de radiação ultravioleta, embora menos intensas do que a suportada pela campeã entre as bactérias. “Elas tentam emparelhar com a Deinococcus”, conta Claudia, “e isso já impressiona; são doses muito elevadas de radiação”. É a primeira vez que esse tipo de organismo – as arqueias, formas de vida que por muito tempo foram confundidas com bactérias, mas na verdade são bem distintas do ponto de vista genético

e evolutivo – passa por uma simulação das condições interplanetárias. Entre as duas arqueias testadas, N. magadii surpreendeu resistindo até mais do que a Deinococcus ao tratamento preparatório para os experimentos – alto vácuo e desidratação –, suficiente para exterminar bactérias não extremófilas como a Escherichia coli, onipresente no ambiente humano. Até certo nível de radiação, os três microrganismos mostraram uma capacidade de sobrevivência semelhante. Acima disso, N. magadii se saiu melhor; H. volcanii não resistiu, possivelmente por já estar fragilizada pelo vácuo. Mas isso está muito longe de desanimar Claudia. “Mesmo que a maior parte de uma amostra seja pulverizada pela radiação, algumas arqueias resistem a altas doses de ultravioleta; talvez o suficiente para que a espécie consiga colonizar outros planetas”, especula a astrobióloga da UFRJ. “Na próxima simulação, vamos irradiá-las em condições mais semelhantes às que existem na casinha natural delas”, planeja Claudia, que justifica a relevância do teste: a poeira cósmica pode ser composta por diversos elementos, entre pESQUISA FAPESP 193 

_  59


Onde foram achadas Deinococcus radiodurans

Haloferax vulcanii

Natrialba magadii Não identificada

Haloferax volcanii e Natrialba magadii

Deinococcus radiodurans

Não identificada

Representantes das arqueias, seres unicelulares considerados primitivos na árvore da vida. São naturais de lagoas alcalinas hipersalinas: a primeira

A bactéria mais durona que se conhece, vive em ambientes de altas temperaturas e baixíssima umidade no mundo todo, como no solo de desertos

Bactéria encontrada no gelo da Antártida tem uma resistência à radiação semelhante à Deinococcus. Sua identidade ainda não foi definida pelos especialistas

foi encontrada no mar Morto e a segunda no lago Magadi, no Quênia. Depois disso, foram encontradas em ambientes hipersalinos de vulcões, em altíssimas temperaturas

eles sais como os silicatos ou carbonatos, que podem conferir graus distintos de proteção. O desempenho das arqueias nessas situações-limite não é de todo inesperado, afinal muitas espécies são reputadas como extremófilas, ou amantes de ambientes extremos, por colonizarem todo tipo de ambiente pouco convidativo, como lagoas hipersalinas e fumegantes crateras de vulcões. Mas para Claudia o resultado é importante pela diferença profunda entre bactérias e arqueias. “As arqueias são um reino à parte, considerado mais primitivo em relação às bactérias.” A descoberta sugere, portanto, que formas ainda mais rudimentares de vida poderiam viajar e colonizar diferentes recantos do Universo. A membrana celular é, segundo ela, essencial nessa defesa, por evitar que a radiação atinja o mais importante, o material genético. E essa membrana é semelhante entre as três espécies estudadas pelo grupo de Claudia, o que é inesperado por ser atípica para bactérias como Deinococcus. No caso das arqueias, mecanismos compensatórios na membrana impedem que elas percam água mesmo no seu ambiente hipersa60 

_ março DE 2012

lino. Os pesquisadores acham que isso é o que protege as células da radiação, embora o envoltório celular de N. magadii ainda não tenha sido estudado em detalhes. Mas além da membrana reforçada, a Deinococcus tem outro truque. Cada bactéria é formada por quatro partes, como se tivesse começado uma divisão sem completá-la, o que faz com que tenha cópias suplementares de seu genoma completo, o que permite recuperar informações caso uma delas seja destruída. Extremos terrestres

Na busca por indícios de origens distintas da vida, os pesquisadores continuam vasculhando ambientes onde só bactérias extremófilas podem existir, como no lago Vostok, nas profundezas do subsolo antártico, perfurado em fevereiro por cientistas russos. Uma das mais recentes descobertas em ambientes extremos deste planeta é uma bactéria encontrada na Antártida e estudada por Amanda Bendia, uma aluna de Claudia que defenderá sua dissertação de mestrado ainda este mês: submetida a altas doses de ultravioleta, a bactéria ainda sem nome respondeu de forma idênti-

ca à Deinococcus. A corrida agora é para descobrir sua identidade. Se for outra espécie de Deinococcus, será a primeira integrante de um gênero adaptado a altíssimas temperaturas a viver no gelo. Se for uma bactéria completamente distinta, será mais uma origem independente da capacidade de enfrentar condições típicas do espaço sideral. Duas possibilidades empolgantes. Para além de traçar as possibilidades de seres vivos em circulação pelo Universo (mesmo que bem diferentes dos marcianos em naves espaciais dos filmes), pesquisas nessa área têm também aplicações práticas: saber o que é necessário fazer para matar essas superbactérias. “Antes de mandar uma sonda para Marte, é preciso desenvolver processos de esterilização violentíssimos para não levar as extremófilas para fora da Terra”, explica Claudia. Essa história deve ser ampliada nos próximos anos, quando entrar em plena atividade o AstroLab, laboratório sediado em Valinhos, no interior paulista, especializado em investigar possibilidades de vida fora da Terra. Um dos Institutos Nacionais de Ciência e Tecnologia (INCTs) financiados pela FAPESP e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), o centro desde janeiro começou análises de microcomunidades de ambientes extremos, como geleiras e fundo do mar. “A grande vantagem é reunirmos todas as etapas num único lugar, desde o armazenamento das amostras até as simulações espaciais”, conta Douglas Galante, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP), e um dos coordenadores do novo centro de pesquisa – junto com Fabio Rodrigues e Rubens Duarte, ambos da USP. Os equipamentos que permitirão simular condições extraterrestres estão, neste momento, no navio a caminho do Brasil. Ele promete boas notícias em breve. n Artigos científicos 1. PAULINO-LIMA, I. G. et al. Survival of Deinococcus radiodurans against laboratorysimulated solar wind charged particles. Astrobiology. v. 11, n. 9, p. 875-82. nov. 2011. 2. ABREVAYA, X. C. et al. Comparative survival analysis of Deinococcus radiodurans and the haloarchaea Natrialba magadii and Haloferax volcanii, exposed to vacuum ultraviolet radiation. Astrobiology. v. 11, n. 10, p. 1.034-40. dez. 2011.


_ obituário {

Atividade ininterrupta A química Blanka Wladislaw pesquisou e ensinou com a mesma intensidade

foto Acervo Liliana Marzorati / IQ/USP

T

enacidade, capacidade de trabalho e vocação para pesquisa e ensino – tudo em grandes doses – foram as qualidades inatas de Blanka Wladislaw, nascida Wertheim, apontadas pelos pesquisadores do Instituto de Química da Universidade de São Paulo (IQ/USP). Natural de Varsóvia, na Polônia, tornou-se uma das principais cientistas do instituto e fez escola – seus discípulos se contam às dezenas, espalhados em universidades pelo país todo. Blanka morreu no dia 21 de janeiro na capital paulista aos 94 anos. A futura química chegou em 1934 em São Paulo, aos 14 anos, com os pais e o irmão mais novo. Em três meses aprendeu a língua para prestar exame de revalidação do ginasial (atual ensino fundamental) e foi aprovada em português, história do Brasil e geografia. Quatro anos depois, em 1938, estava cursando química no prédio da alameda Glete, onde funcionavam alguns cursos da USP antes da criação da Cidade Universitária. Antes, casou com Anatol Wladyslaw, um engenheiro que viria a se tornar artista plástico renomado. Blanka teve como professores os alemães Heinrich Rheinboldt e Heinrich Hauptmann. Formada em 1941 e sem emprego imediato na universidade, ela optou por trabalhar em empresas privadas, mas em 1945 voltou como estagiária no laboratório de Hauptmann. Doutorou-se em 1949 e começou a dar aulas de química orgânica. Sua principal linha de pesquisa era o estudo de compostos orgânicos de enxofre. Em 1953 estagiou no Imperial College of Science, Technology and Medicine, em Londres, com bolsa do Conselho Britânico. A livre-docência foi obtida em 1958 e em 1971 tornou-se professora titular.

Blanka nos anos 1950 na biblioteca do prédio da alameda Glete

Uma de suas características era formar pesquisadores que aprendessem a criar seus próprios grupos de pesquisa “Quando Hauptmann morreu em 1960, ela assumiu as funções didáticas dele, a orientação de uma doutoranda e, ainda assim, não diminuiu o ritmo de sua pesquisa e aumentou significativamente a preparação das aulas”, conta Liliana Marzorati, do IQ, que teve Blanka como orientadora. “Foi ela quem introduziu os estudos de eletrossíntese orgânica no Brasil, uma área diversa da qual trabalhava”, afirma Hans Viertler, ex-diretor do IQ e o primeiro dos 29 pós-graduandos que Blanka orientou do começo ao fim. “Ela formava pessoas para que achassem suas próprias linhas de pesquisa e, por sua vez, formassem outros pesquisadores”, diz Paulo Roberto Olivato, outro dos discípulos que alçou voo próprio. “O objetivo era fazer o aluno andar com as próprias pernas.” Ativa até o fim, no semestre passado Blanka fez sua última orientação de tese. n pESQUISA FAPESP 193    61


tecnologia _ B iocombustíveis

Opção produtiva Sorgo é plantado para produzir etanol na entressafra de cana Marcos de Oliveira

À esquerda, plantação de cana em fase de crescimento. Ao lado, o sorgo pronto para a colheita com a panícula de grãos. Ao contrário da cana, que não pode florescer para não perder o açúcar do colmo, o sorgo é mais produtivo nessa condição

62   março DE 2012


fotos  monsanto

agronomia

energia

O

s consumidores nem vão perceber nos meses de março e abril que o etanol de algumas bombas de combustível, ainda em poucos postos, não terá sido produzido com a tradicional cana-de-açúcar. Ele será feito de sorgo, uma planta da família das gramíneas, a mesma da cana. A previsão é do pesquisador André May, da unidade Milho e Sorgo da Empresa Brasileira de Pesquisa Agropecuária (Embrapa), que acompanha vários experimentos relativos à introdução do sorgo na matriz energética do país. A própria Embrapa, que desde 2007 se propõe a desenvolver a cultura do sorgo na entressafra da cana, deve lançar três novas variedades dessa gramínea para a produção de etanol ainda neste ano. Desconhecido de grande parte da população urbana brasileira, o sorgo, para o homem do campo, é uma cultura que fornece forragem para o gado ou sementes para criação de aves e suínos. Ele supre os animais de energia e proteínas de forma nutricional muito próxima à do milho. Apenas na África de onde a planta é originária, provavelmente da Etiópia e do Sudão, ele é importante para alimentação humana, na forma de farinha feita dos grãos.

O etanol produzido a partir de sorgo vem suprir uma lacuna na plantação de cana em que a colheita acontece entre abril e novembro. A falta de etanol entre dezembro e março eleva o preço na entressafra e afasta o consumidor que possui carros flex desse combustível. De período curto de crescimento, em no máximo 120 dias ele é plantado e colhido, o sorgo é uma cultura que pode ser semeada justamente entre novembro ou dezembro até mesmo em fevereiro ou março, ocupando áreas de renovação da terra na plantação de cana, que deve acontecer a cada cinco anos, ou na constituição de novas lavouras, principalmente em terrenos antes dedicados a pastagem de bovinos, situação presente neste momento no noroeste paulista, no norte paranaense, em Mato Grosso do Sul e Goiás. Experimentos com a produção de etanol com sorgo, também na entressafra da cana, estão sendo realizados na Colômbia com bons resultados. Outra vantagem para o sorgo é que o caldo extraído de seus colmos se adapta bem ao processo industrial das usinas de cana onde o etanol é produzido. As modificações nos equipamentos são mínimas, em ajustes pontuais. As máquinas para a colheita usadas na cana também servem pESQUISA FAPESP 193    63


para colher o sorgo. Assim, as usinas reduzem o período de entressafra, principalmente entre março e abril. O sorgo possui várias utilidades de acordo com as suas variedades. Existem o sorgo forrageiro, o granífero e o sacarino, que possui taxas maiores de açúcar nos colmos e serve para a produção de açúcar, embora não seja aproveitado para esse fim pela baixa produtividade em relação à cana. Na Embrapa Milho e Sorgo, com sede em Sete Lagoas, Minas Gerais, também deve ser apresentado em 2013 o sorgo lignocelulósico, uma linhagem com colmos maiores para produzir mais biomassa que está sendo preparada para a futura produção de etanol da chamada segunda geração, quando se utilizarão enzimas para extrair o combustível diretamente da celulose do bagaço da planta. “Ele também vai servir para produzir energia elétrica com a queima em caldeiras ou produzir vapor para aquecimento de processos na indústria alimentícia”, diz Robert Schaffert, pesquisador da Embrapa Milho e Sorgo. “Nossa expectativa é que o sorgo lignocelulósico produza até 60 toneladas de matéria seca por hectare ao ano. Isso representa 2,5 vezes a mais que a cana ou o milho”, explica. Schaffert estuda o sorgo há 40 anos e é testemunha de que a ideia de usar essa planta para produzir etanol não é nova. “O Proálcool [Programa Nacional do Álcool] em 1976 já previa a produção de etanol com sorgo sacarino em microdestilarias espalhadas pelo país porque no início não havia como levar o álcool para regiões mais afastadas dos centros produtores.” Lançamos três variedades de sorgo sacarino que até hoje continuam à disposição dos agricultores, embora elas estejam sendo usadas como forrageiras ou graníferas ao longo desses anos todos. “Em 1985

O sorgo sacarino para fazer etanol em microdestilarias já estava previsto no Proálcool em 1976

a política de incentivo foi para as grandes destilarias e aí não conseguimos vender a ideia para as usinas. O jeito foi coletar o material genético (sementes) e guardá-lo em câmara fria.” A retomada das pesquisas na Embrapa aconteceu em 2008, quando muitas usinas compradas por grandes grupos nacionais, como a Petrobras, ou internacionais, começaram a perceber que o investimento ficava parado em alguns meses do ano e encontraram no sorgo uma possível saída para aumentar a safra em 15 ou até 60 dias. Juntou-se à inatividade de alguns meses a necessidade de produzir mais álcool porque a frota de carros flex crescia acelerada e o combustível passou a faltar na entressafra. A Embrapa então contratou novos pesquisadores para a pesquisa com o sorgo, como André May e Rafael Parrella. Empresas internacionais como Monsanto, Ceres e Advanta logo perceberam a possibilidade de entrar no mercado e passaram a selecionar e produzir sementes comerciais para essa nova fase

calendário bioenergético

da produção de etanol. Desde novembro, tanto Embrapa como essas empresas possuem campos de produção de sorgo em áreas comerciais dentro de usinas tradicionais de cana para a colheita e processamento industrial neste mês e em abril. Em 2010 alguns poucos hectares foram plantados em algumas usinas de forma exclusivamente experimental sem fins comerciais. “Entre 2002 e 2004 nós identificamos o sorgo sacarino durante a caracterização do germoplasma [genes, sementes] da Monsanto já pensando na produção de etanol”, diz o engenheiro agrícola Urubatan Klink, líder de pesquisa comercial do sorgo da Monsanto. “Nosso germoplasma é formado com a aquisição de empresas no Brasil, Estados Unidos e México, assim parte do material que usamos para gerar plantas híbridas é nacional e outra parte de fora.” Vendo a possibilidade de as usinas produzirem com mais dois meses de produção, a empresa fez desde 2009 experimentos com sementes híbridas que são produzidas a partir de cruzamentos tradicionais (não transgênicos) de espécimes com características úteis para a plantação, como produtividade e resistência a doenças. Em 2011 a Monsanto lançou os primeiros híbridos comerciais depois de ter feito também um amplo estudo sobre o agronegócio do sorgo sacarino. “Nos últimos três anos experimentamos mais de 800 híbridos no campo. Esperamos testar mais 4 mil nos próximos dois anos.” Essa é a oportunidade de a empresa entrar definitivamente na área de produção energética do campo. Para Klink contou nessa inserção a participação dos pesquisadores e o know-how da Canavialis, empresa adquirida pela Monsanto em 2008. Formada por pesquisadores especializados no melhoramento de variedaProdução de etanol por hectare

O sorgo é plantado e colhido na entressafra da cana, nos meses de novembro a abril

cana nov • dez • jan • fev • mar • abr • mai • jun • jul • ago • set • out • nov

7 mil

120 dias  u

litros

Plantio de sorgo Fonte embrapa

64   março DE 2012

Colheita de sorgo

Colheita de cana

2,5 mil litros

sorgo


30 mil hectares foram plantados com sorgo nesta safra. A próxima deve ter 120 mil hectares

A colheita do sorgo é feita com o mesmo maquinário usado na plantação de cana

des de cana, a empresa foi formada em 2003 depois da conclusão do Genoma da Cana, financiado pela FAPESP. “Isso nos ajudou a ganhar o conhecimento sobre a indústria de cana”, diz Klink.

O

utra multinacional com sede nos Estados Unidos, a Ceres, que está se tornando especializada em culturas energéticas, também lançou dois híbridos em 2011. “Estamos muito otimistas. Acreditamos que em até três anos o sorgo deva ocupar 500 mil hectares. Para os próximos três anos temos a informação de que pelo menos 1,5 milhão de hectares de terras estará propício à renovação”, diz o engenheiro agrônomo William Burnquist, gerente-geral da Ceres no Brasil. A empresa foi buscá-lo no Centro de Tecnologia Canavieira (CTC), mantido pela indústria sucroalcooleira, onde ele trabalhou por 30 anos no melhoramento da cana. Ele diz que as sementes de sorgo da empresa já foram plantadas entre novembro e dezembro em unidades dos cinco maiores grupos canavieiros do país, nos estados de São Paulo e Goiás. “Acredito que chegamos a 4 mil hectares plantados. Se tivéssemos mais sementes talvez a área fosse maior. A procura está grande”, diz Burnquist. Assim como a Monsanto, a Ceres possui campos próprios onde desenvolve e produz suas sementes híbridas. As duas empresas não informam o montante de investimentos realizados com o desenvolvimento e produção de sementes de sorgo no país.

Embora exista certo entusiasmo pela introdução do sorgo na indústria de etanol, que se tudo der certo será um novo marco na já exemplar história do biocombustível no país, todos os envolvidos são unânimes em dizer que o sorgo não vai substituir a cana ou tomar-lhe espaço. A diferença de produtividade entre as duas plantas ainda é alta. Enquanto são produzidos 7 mil litros de etanol por hectare ao ano, o sorgo atinge 2,5 mil litros anuais por hectare. Mas se depender dessa quantidade de álcool produzido ele deverá ocupar um espaço cativo nas usinas. O custo da plantação é atrativo para o sorgo, R$ 2 mil o hectare, ante R$ 5 mil da cana e o cultivo dura apenas quatro meses. “Este ano é bastante decisivo para a cultura de sorgo na produção de etanol”, analisa André, da Embrapa. “Usineiros e produtores ainda não conhecem por completo a planta e o manejo correto. Os gerentes das usinas vão precisar de paciência com o pessoal do campo por ser uma cultura em adaptação”, afirma. Ele calcula que cerca de 30 mil hectares estejam plantados com sorgo nesta safra 2011/2012. Não existem dados oficiais sobre esse plantio. Para André, no próximo ano a produção deve se estender para 120 mil hectares. De cana, o Brasil tem plantado 8 milhões de hectares. Incertezas e possíveis ajustes podem acontecer ao longo das safras. “Erros no manejo do plantio e do solo podem levar a uma produtividade de 1,5 mil litros por hectare (l/ha), o que não dá rentabilida-

de”, diz André. É preciso garantir, pelo menos, 2,5 mil l/ha. No processo industrial nas usinas a compatibilidade é positiva, mas problemas podem aparecer, como o excesso de amido presente nas panículas da planta (onde estão as sementes) que pode aumentar a viscosidade do caldo no processo de produção de etanol. “Esse como outros não são problemas insolúveis, podemos, por exemplo, inserir enzimas para diminuir o nível de amido”, afirma Carlos Eduardo Rossell, diretor do Programa Industrial, do Laboratório Nacional de Ciência e Tecnologia do Bioetanol (CTBE), de Campinas (SP). “Neste ano vamos acompanhar mais de perto a safra de sorgo e fazer um diagnóstico de possíveis problemas.” Outra área que merece acompanhamento são as linhagens de leveduras Saccharomyces cerevisiae usadas na fermentação do caldo de sorgo. “Por enquanto, elas são as mesmas usadas na cana”, diz o engenheiro agrônomo Henrique Amorim, sócio da Fermentec. A empresa é responsável por cerca de 80% das leveduras utilizadas pelas usinas no país. “Acompanhamos há dois anos os experimentos com sorgo. Existe variação na composição química no caldo e já identificamos fatores que podem afetar a fermentação. Estamos estudando novas leveduras e vamos acompanhar o processo de fermentação de, pelo menos, cinco usinas na safra de sorgo”, diz Amorim. “Tudo no começo tem problemas e tudo é resolvível por meio de pesquisa”, conclui. n pESQUISA FAPESP 193    65


_ I ndústria de papel

Brancura total Pequena empresa desenvolve enzima para alvejar a celulose sem dano ambiental

66 

_ março DE 2012

U

m novo tipo de enzima para branqueamento de celulose, mais eficiente e barata e que não causa problemas ambientais, poderá chegar em breve ao mercado. Ela foi desenvolvida pela empresa Verdartis Desenvolvimento Biotecnológico, que se originou de um grupo de pesquisas da Universidade de São Paulo (USP) em Ribeirão Preto. Entre as vantagens do novo produto estão a redução do volume de água usada no processamento da madeira para a obtenção da celulose e da quantidade de dióxido de cloro, o agente químico empregado no seu branqueamento. Além disso, a enzima pode ser personalizada, de acordo com as características e necessidade de cada indústria de papel. Para conseguir criá-la, a Verdartis contou com os recursos de cinco projetos financiados pelo programa Pesquisa Inovativa em Pequenas Empresas (Pipe), da FAPESP. O sócio da empresa, Marcos Roberto Lourenzoni, formado no Departamento de Química da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto (FFCLRP), da USP, explica que a celulose é composta de elementos fibrosos que são individualizados no processamento industrial da madeira e adquirem uma coloração marrom devido à presença de lignocompostos. Para tornar essas fibras adequadas para a fabricação de papéis, o branqueamento é uma etapa fundamental em que são necessários compostos químicos de custo alto e exigentes em cuidados específicos durante o descarte na forma de efluentes industriais. Nesse processo, duas substâncias químicas remanescentes, a lignina e grupos chamados de urônicos, são responsáveis pelo consumo dos reagentes presentes nas fibras e que podem ser reduzidos com o emprego de enzimas. O dióxido de cloro reage com a lignina, responsável pela coloração marrom, quebrando-a em moléculas menores, que são solúveis e extraídas no processo. Muito dessa lignina fica encapsulada pela polpa, o que exige maiores quantidades de dióxido de cloro e outros reagentes para acessá-la. “No caso das enzimas, elas são específicas para atuar na quebra do substrato e


leo ramos

Ambiente

de outros componentes da celulose, como a lignina residual”, explica Lourenzoni. “Isso proporciona a criação de poros na polpa e possibilita que o dióxido de cloro acesse mais facilmente a lignina. Com isso, é necessária uma quantidade menor de químicos para alcançar o mesmo efeito. A vantagem é uma redução de custos.” Além de reduzir os custos do branqueamento, as enzimas desenvolvidas pela Verdartis podem fazer o mesmo em relação ao gasto com a energia elétrica necessária para o refino da celulose. Nessa etapa, a celulose é diluída em água, passando por refinadores para provocar desfibrilamento de macrofibrilas consumindo energia elétrica em processo mecânico. A ação das enzimas quebra grupos de celulose, facilitando a ação de refino e, consequentemente, diminuindo o consumo de energia elétrica. Enzimas são proteínas produzidas pelos organismos vivos que desempenham a função de catalisadores, ou seja, têm a propriedade de acelerar reações químicas. Para que possam ser usadas em um processo industrial, no entanto, elas têm de ser produzidas em grande quantidade, em pouco tempo e com características específicas e desejadas. Já existe no mercado uma série de enzimas para branqueamento de celulose. O problema é que elas são muito caras e liberam grande quantidade de material orgânico nos efluentes, que exige tratamento e mais aumento de custos. É aí que entra a tecnologia desenvolvida pela Verdartis. Por meio de engenharia molecular (ou engenharia genética), a empresa produz, a partir de microrganismos como a bactéria Escherichia coli, catalisadores personalizados para cada processo industrial ou cada fábrica de seus clientes. “Ou seja, criamos a enzima para o processo em vez de modificar o processo para a enzima”, diz Lourenzoni. “Além disso, ela não solta resíduos na água, o que a torna mais eficiente no âmbito econômico e ambiental.” Entre as técnicas usadas para isso, está a chamada evolução dirigida, também conhecida como biotecnologia evolutiva. De forma mais rápida que na natureza, ela reproduz em laboratório

a evolução da biodiversidade natural por meio do mesmo mecanismo de seleção por adaptação ao ambiente. Na prática, a evolução dirigida mimetiza o que ocorre na natureza, ou seja, na evolução natural (mutação, recombinação e seleção natural). A diferença é que as propriedades que se deseja para as enzimas são predefinidas pelos cientistas. Nessa técnica, mutações aleatórias são induzidas no DNA, dando origem a uma “biblioteca” de genes modificados, na qual cada um deles codifica um catalisador. “Nessa biblioteca há milhões de possibilidades ou combinações, dentre as quais algumas são boas soluções para expressar a característica que se está buscando para uma determinada enzima”, explica Lourenzoni. “Na prática, uma biblioteca com genes de enzimas selvagens é criada. Depois, cópias desses genes são inseridas em vetores de expressão, que são usados para transformar o microrganismo, no caso da Verdartis, a E. coli.”

biotecnologia

Genes para a evolução

Dessa forma, um conjunto de bactérias, cada uma com um determinado gene, vai produzir uma enzima diferente. Um conjunto desses é selecionado, o que representa uma quantidade bem pequena em relação a todas as combinações da biblioteca, pois é impossível processar e testar todas as possibilidades geradas. Com esse conjunto é possível encontrar enzimas adaptadas para atuar num determinado ambiente, que simula as condições industriais desejadas, e selecionar aquelas que forem funcionais. O passo seguinte é sequenciar o DNA dessas enzimas e verificar suas mutações. “Os genes dessas melhores enzimas podem ser submetidos a recombinações visando à evolução”, explica Lourenzoni. Mas isso só não basta. Embora a evolução dirigida seja muito mais rápida que a natural, não é o suficiente para sustentar o modelo de negócio de enzimas parsonalizadas. O processo para criar uma determinada enzima pode demorar meses, mas a necessidade do mercado por novas é imediata. Por isso ele precisa ser acelerado. Para resolver pESQUISA FAPESP 193 

_  67


US$5 bilhões é o valor das exportações de celulose do Brasil em 2011. O setor cresceu 6,2% em relação ao ano anterior

o problema, a Verdartis desenvolveu um software, chamado Artizima, usado para lidar com o número astronômico de variantes de enzimas que são avaliadas experimentalmente. O uso da ferramenta possibilita acelerar ciclos de evolução dirigida, minimizando o tempo do desenvolvimento de um catalisador específico para uma determinada função. O passo final da tecnologia é a produção em escala laboratorial e posteriormente industrial fase que a empresa ainda não atingiu. De qualquer forma, Lourenzoni explica que esse processo é dividido em duas etapas: a primeira é a produção propriamente dita em fermentadores e a segunda, chamada downstream, é a de separação e purificação da enzima. Bases da transformação

A biotecnologia foi inicialmente desenvolvida na tese de doutorado de Roberto Ruller, orientada pelo professor Richard John Ward, do Departamento de Química da FFCLRP. Após o fim de seu próprio doutoramento, Lourenzoni foi trabalhar em uma empresa de base tecnológica, na qual foi procurado por Ward, que queria saber se ela se interessaria pela tecnologia. Como o foco dela era tecnologia da informação, a ideia não foi aceita. “Decidimos então, em 2006, abrir outra firma para transformar a pesquisa feita pelo Ruller e Ward em tecnologia”, conta Lourenzoni. Na época, a Verdartis participou de concursos de planos de negócios orga68 

_ março DE 2012

nizados pela Incubadora de Empresa de Base Tecnológica Supera, criada em 2003, numa parceria entre a USP, a Fundação Instituto Polo Avançado em Saúde (Fipase), a Prefeitura Municipal de Ribeirão Preto e o Sebrae. “Vencemos o concurso em 2007 e um dos prêmios foi o direito de ter uma sala na incubadora, que era muito pequena e o espaço muito disputado”, lembra o diretor da Verdartis. “Dessa forma, a empresa foi criada em junho do mesmo ano, quando submetemos um projeto Pipe do qual fui coordenador.” O financiamento da FAPESP possibilitou à empresa avançar no desenvolvimento de tecnologias a partir do que foi transferido dos laboratórios de Ward. Outros projetos apoiados pelo Pipe se seguiram. O segundo, aprovado em 2009, foi para o desenvolvimento do bioprocesso para produção de enzimas. Ainda no mesmo ano, a Verdartis teve um terceiro projeto aprovado na FAPESP, dessa vez um Pipe para a criação de software para auxiliar a desenvolver catalisadores in silico (num computador). A empresa também recebe recursos da Financiadora de Estudos e Projetos (Finep) e dos sócios. Em 2011, o quarto Pipe foi iniciado e está em vigência, com o objetivo de melhorar a eficiência catalítica de enzimas, em altas temperaturas e pHs entre 8 e 10. Em 2012 a Verdartis aprovou no edital Pipe-III seu quinto projeto, para desenvolver parte do escalonamento do bioprocesso de produção de enzimas. Esse projeto está sendo apoiado pela Suzano Papel e Celulose S/A, que tem interesse nesse desenvolvimento. O próximo passo é construir uma fábrica, com capacidade para a produção de qualquer catalisador, por meio de fermentação de qualquer microrganismo. Para montá-la, a Verdartis está em conversações com alguns possíveis parceiros investidores. No que depender da avaliação da Suzano, as enzimas desenvolvidas pela pequena empresa de Ribeirão Preto têm futuro. “Nós já testamos a maior parte das que existem no mercado e sempre encontramos problemas”, conta Augusto Fernandes Milanez, consultor de produção e pesquisa e desenvolvimento da companhia. “Os dois principais são o preço alto e a grande quantidade de material orgânico que elas liberam nos efluentes.” Por isso, a Suzano está

apoiando e orientando a Verdartis no desenvolvimento de seus catalisadores, além de fornecer a celulose para testes e realizar ensaios e análises dos resultados. “O pessoal dessa empresa tem conseguido avanços promissores”, diz Milanez. “A cada vez que vemos o produto, constatamos evoluções. Por isso vemos potencial nas enzimas da Verdartis.” O que também não falta é mercado em potencial para esses catalisadores. O Brasil é um dos maiores e mais modernos fabricantes de papel do mundo, com 222 indústrias em atividade e 2,2 milhões de hectares de florestas plantadas para fins industriais. Segundo dados da Associação Brasileira de Celulose e Papel (Bracelpa), a receita de exportações do setor em 2011 foi de US$ 7,2 bilhões, um crescimento de 6,2% em relação a 2010. Desse total, US$ 5 bilhões correspondem às exportações de celulose, responsáveis por 69,5% da receita total de exportações do segmento no ano passado. Como se vê, não faltará mercado para enzimas branqueadoras. n Evanildo da Silveira

Os Projetos 1 - Persozyme – enzimas personalizadas criadas por evolução dirigida para uso no biobranqueamento da polpa de celulose n° 2007/51561-1 2 - Artizima - ferramenta computacional para evolução in silico de enzimas utilizadas em biorrefinarias – n° 2007/59308-3  3 - Bioprocesso de produção de enzimas para biorrefinaria de biomassa: branqueamento de celulose nº 2008/53426-7 4 - Desenvolvimento de enzimas para biobranqueamento de celulose: serviço de personalização de enzimas através de um processo robusto e inovador de engenharia molecular – nº 2010/50328-4 5 - Bioprocesso de produção de enzimas para biorrefinaria de biomassa: branqueamento de celulose nº 2011/51096-2 modalidade 1 a 5 – Programa Pesquisa Inovativa em Pequenas Empresas (Pipe) Co­or­de­na­dores 1 - Marcos Roberto Lourenzoni – Verdartis 2 - Renato Luis Tame Parreira – Verdartis 3 e 5 - Alvaro de Baptista Neto – Verdartis 4 - Ninive Aguiar Frattini – Verdartis investimento 1- R$ 261.866,47 e US$ 72.891,00 (FAPESP) 2- R$ 79.120,80 (FAPESP) 3- R$ 141.712,46 e US$ 22.582,85 (FAPESP) 4- R$ 262.280,68 e US$ 145.863,76 (FAPESP) 5- R$ 64.463,72 e US$ 38.212,41 (FAPESP)


_ A nálise de água

Levedura luminescente Pesquisadores utilizam microrganismo para detectar hormônio em rios Yuri Vasconcelos

U

m novo tipo de teste realizado por uma equipe de pesquisadores da Universidade Estadual de Campinas (Unicamp) em cooperação com colegas norte-americanos da Universidade do Tennessee revelou que alguns mananciais do estado de São Paulo possuem níveis elevados de compostos estrogênicos, uma classe de contaminante que pode trazer sérios riscos ao ambiente, aos animais e à saúde humana. O teste, baseado no uso de leveduras transgênicas luminescentes, mostrou que a situação é pior no rio Cotia, curso d’água da Região Metropolitana de São Paulo usado para abastecimento de várias cidades. Ao todo, amostras de água de quatro mananciais – rios Cotia, Atibaia e Sorocaba e represa Tanque Grande, em Guarulhos – foram examinadas pela equipe, que contou também com a participação de técnicos da Companhia Ambiental do Estado de São Paulo (Cetesb), ligada à Secretaria do Meio Ambiente do governo paulista. A análise revelou que 83% das amostras apresentavam atividade estrogênica, sendo que oito dos 16 compostos rastreados foram encontrados em pelo menos uma amostra. “Nossa pesquisa encontrou valores mais elevados nos lugares sabidamente mais contaminados por esgoto doméstico”, afirma a toxicologista Gisela Umbuzeiro, professora da Faculdade de Tecnologia da Unicamp, que coordenou o trabalho. “Não é ainda uma situação alarmante, mas requer uma ação

imediata das autoridades no sentido de melhorar a situação do tratamento de esgoto no país.” Segundo Gisela, o bioensaio é muito sensível e pode ter aplicação imediata no monitoramento da qualidade das águas por órgãos ambientais. “O projeto foi concebido com esse fim”, diz ela. Também chamados de interferentes endócrinos, por apresentarem atividade de desregulação das glândulas endócrinas, produtoras de hormônios, os compostos estrogênicos têm preocupado cientistas e autoridades sanitárias em função de sua rápida disseminação pelas reservas de água do planeta. Estudos revelam que, dependendo do nível de concentração em que se encontram na água, eles podem provocar a feminilização de peixes e anfíbios, gerar anomalias sexuais em moluscos e reduzir a taxa de fertilidade de ursos-polares, no caso do hemisfério Norte. Suspeita-se, também, de que a presença desses poluentes na água para consumo humano esteja antecipando a primeira menstruação de meninas e reduzindo o número de espermatozoides em homens. Esses compostos são um vasto grupo de hormônios, entre eles os hormônios sexuais naturais femininos estrona (E1), 17ß-estradiol (E2) e estriol (E3), o estrogênio sintético 17-alfaetinilestradiol (EE2), usado em pílulas anticoncepcionais, e o bisfenol A, composto industrial que participa da produção de vários produtos, como plásticos policarbonatos, resinas epóxi, fungicidas e alguns tipos especiais de papel. pESQUISA FAPESP 193 

_  69


Levedura detecta estrogênio na água Luminômetro

Gene de DNA humano

Estrogênio

Gene de bactéria Sinalizador luminescente

A levedura transgênica (Saccharomyces cerevisiae) contém um gene receptor de estrogênio humano e um gene de uma bactéria luminescente que a faz brilhar

A levedura é introduzida na água para o teste

O problema é que muitas dessas substâncias são eliminadas na urina. Também se tornam contaminantes por meio do despejo de medicamentos no vaso sanitário, urina de animais que recebem hormônios e a chuva os leva pelas redes de esgoto ou diretamente para os rios e lagos ou ainda da tinta que reveste o casco de navios e barcos. São compostos de diferentes fontes difusas que se não forem removidas, das redes de esgoto, acabam contaminando rios, lagos e reservatórios de água. “Em geral, os métodos convencionais de tratamento de água e esgoto não são capazes de remover esses compostos com a eficiência desejada. Quando isso ocorre, eles podem atingir a água usada para consumo humano”, afirma o professor Wilson Jardim, responsável pelo Laboratório de Química Ambiental do Instituto de Química da Unicamp e coordenador de um projeto apoiado pela FAPESP sobre o tema. Existem métodos de tratamento de esgoto eficientes para a eliminação desses hormônios, como os oxidativos avançados e os que utilizam ultrafiltração, mas nem sempre são usados porque possuem custos elevados. O risco de contaminação é maior em países com deficiências no serviço de saneamento, como o Brasil, onde, em muitos lugares, o tratamento de esgoto é inexistente. A importância do estudo feito no Brasil é o seu ineditismo. Depois de desenvolverem a levedura bioluminescente, os pesquisadores da Universidade do Tennessee passaram a usá-la em ensaios pa70 

_ março DE 2012

O gene receptor humano faz com que a levedura “cole” no estrogênio que estiver presente na água

ra detectar atividade estrogênica em rios dos Estados Unidos, como o Potomac, que banha a capital do país. Mas os resultados foram negativos porque a presença desses compostos nos mananciais de lá é pequena. “A inovação do nosso trabalho foi que, pela primeira vez, aplicou-se em larga escala o teste com as leveduras para monitorar a qualidade de águas brutas e tratadas, comparando os resultados com análises químicas de compostos estrogênicos. Isso nunca havia sido feito antes”, diz Gisela, que trabalhou durante 22 anos na Divisão de Toxicologia, Genotoxicidade e Microbiologia Ambiental da Cetesb. Para usar a levedura transgênica no Brasil, a empresa pediu autorização para a Comissão Técnica Nacional de Biossegurança (CTNBio). monitoramento futuro

Em razão dos bons resultados do projeto, a companhia informou que pretende usar o ensaio em suas atividades de monitoramento. “Estamos ajustando a metodologia e temos interesse em implantar no futuro o teste em nossos monitoramentos de água superficial e subterrânea”, afirmou Rúbia Kuno, a atual gerente da mesma divisão da Cetesb. O teste Blyes (sigla de bioluminescent yeast estrogen screen ou ensaio com levedura bioluminescente para detecção de estrógeno) bem como a levedura transgênica empregada para monitorar a qualidade dos mananciais paulistas foram desenvolvidos pela equipe do microbiologista John Sanseverino e da bióloga molecular Melanie Eldridge, do Centro de Bio-

O brilho não é visível a olho nu, por isso utiliza-se um luminômetro para medir a luminosidade das leveduras

tecnologia Ambiental da Universidade do Tennessee, com quem a pesquisadora Gisela mantém contato desde 2008. “Fiz duas visitas ao laboratório para aprender a realizar o ensaio. Minha aluna de mestrado Ana Marcela Bergamasco, da Faculdade de Farmácia da USP, também esteve lá”, conta Gisela. Em 2010 foram feitas análises de várias amostras de água nos Estados Unidos. No começo de 2011 foi possível implantar o ensaio na Cetesb com um lote de leveduras doadas pelos pesquisadores do Tennessee. Para desenvolver o teste, os cientistas norte-americanos precisaram, inicialmente, fazer alterações no código genético da levedura Saccharomyces cerevisiae

Os Projetos 1. Ocorrência e atividade estrogênica de interferentes endócrinos em água para consumo humano e em mananciais do estado de São Paulo – nº 2007/58449-2 2. Implementação do teste para avaliação da atividade endócrina em leveduras luminescentes Blyes e Blyas – nº 2010/17918-2 modalidades 1. Projeto Temático 2. Auxílio Regular a Projeto de Pesquisa – Pesquisador Visitante Co­or­de­na­dores 1. Wilson de Figueiredo Jardim - Unicamp 2. Gisela Umbuzeiro – Unicamp investimento 1. R$ 349.285,93 e US$ 350.654,38 (FAPESP) 2. R$ 20.697,01 (FAPESP)

infográfico tiago cirillo

Levedura


a fim de torná-la luminescente e capaz de detectar os compostos estrogênicos. Em laboratório, o organismo recebeu um gene que produz o receptor de estrógeno humano e um conjunto de genes envolvidos na produção de luz, oriundos de uma bactéria luminescente. “A produção da linhagem das leveduras luminescentes levou dois anos. Ela ficou pronta em 2005 e está em contínuo aperfeiçoamento”, diz a pesquisadora Melanie Eldridge. O gene produtor do receptor de estrógeno está sempre ativo na levedura, ou seja, produzindo o receptor ininterruptamente. Quando este se liga a compostos estrogênicos presentes na amostra de água testada, o conjunto receptor mais compostos estrogênicos ativa os genes da produção de luz e a levedura fica luminescente. Para quantificar essa luminescência – que não é visível a olho nu –, os cientistas usam um equipamento muito sensível chamado luminômetro. “A intensidade da luz é proporcional à quantidade de compostos estrogênicos detectados”, explica Gisela. Essa medida de luz é sempre relativa a um composto padrão, como o E2. “Por isso, dizemos que uma amostra tem o equivalente a xis nanogramas de E2 por litro.” Perto de 400 amostras de água colhidas nos rios Sorocaba, Cotia e Atibaia e no reservatório Tanque Grande foram analisadas pela Cetesb e Unicamp, com apoio de Melanie. A bióloga norte-ameriRio Cotia, na Região Metropolitana de cana passou três meSão Paulo, tem ses no Brasil no inío pior nível de cio de 2011 ajudando contaminação

reagentes de baixo custo para preparar o meio de cultura da levedura. É necessário um investimento inicial com o medidor de luz que não chega nem a 10% do valor de um cromatógrafo líquido, que custa entre US$ 200 mil e US$ 500 mil. Além disso, ele é mais rápido, porque permite realizar centenas de amostras por mês. Uma É preciso mudar a legislação vez padronizado, ele não para eliminar a contaminação requer grande infraestrutura para sua operacom estrógenos nos rios ção”, diz Gisela. Sensibilidade é outra vantagem do Blyes. No caso do EE2, que é um composto na implantação do teste e na capacitação muito potente, o limite de quantificação do grupo de pesquisa. As amostras foram do método químico foi estimado em 4,2 coletadas e em seguida levadas ao labora- nanogramas por litro (ng/litro), enquanto tório em caixas de isopor com gelo, onde o ensaio com as leveduras é capaz de depassaram por um procedimento de ex- tectar concentrações de apenas 0,01 ng/ tração em fase sólida, com o objetivo de litro. No caso do E2, o limite de quantifitorná-las mais concentradas. Essa etapa cação por análise química é de 1,8 ng/litro é importante, pois facilita a detecção dos diante de 0,1 ng/litro do Blyes. Esse sistecompostos estrogênicos eventualmente ma não substitui as análises químicas mas em programas de monitoramento pode ser presentes na água. As mesmas amostras foram subme- uma opção muito eficiente. A expectativa dos pesquisadores é que tidas à análise química pela técnica de cromatografia líquida acoplada à espec- os resultados chamem a atenção das instrometria de massas, método já utilizado tituições regulatórias ligadas ao ambiente por algumas companhias de saneamento e ao saneamento básico para a necessidana detecção de compostos estrogênicos de de definir normas e ações corretivas em água. Assim, os pesquisadores com- na gestão dos serviços de água e esgoto. pararam os resultados do Blyes com os “Nosso objetivo é prover um cenário da contaminação de importantes mananciais da análise química convencional. “Concluímos que o nosso teste é muito de água do estado e ferramentas para a eficiente, mais fácil de usar e mais barato. solução ou minimização do problema. É Uma vez implantado, requer apenas alguns preciso mudar a legislação para combater o problema”, destaca o professor Wilson Jardim. No futuro, o bioensaio com as leveduras luminescentes poderá estar disponível para qualquer interessado. “Planejamos comercializar o teste Blyes”, afirma Melanie. Estamos verificando como vender as linhagens de forma que muita gente – e não apenas cientistas – possa usá-las para testar suas amostras de água.” n

Artigos científicos

leo ramos

1. Bergamasco, A.M.D.D. et. al. Bioluminescent yeast estrogen assay (Blyes) as a sensitive tool to monitor surface and drinking water for estrogenicity. Journal of Environmental Monitoring. v. 13, p. 3288-93. 2011. 2. Montagner, C. C.; Jardim, W. F. Spatial and Seasonal Variations of Pharmaceuticals and Endocrine Disruptors in the Atibaia River, Sao Paulo State (Brazil). Journal of The Brazilian Chemical Society. v. 22, n. 8, p. 1.452-62. 2011. pESQUISA FAPESP 193 

_  71


_ cinema

Imagens de vanguarda Sistema armazena e transmite filmes em superalta definição

U

m sistema computacional elaborado na Universidade Federal da Paraíba (UFPB) colocou o Brasil entre as nações que desenvolvem tecnologia para cinema digital. Batizado de Fogo Player, ele é capaz de armazenar, transmitir e controlar a exibição de filmes em superalta definição, no formato 4K 3D, ou seja, com imagens em resolu��ão com mais de 8 milhões de pixels por quadro ou 16 milhões se considerarmos o efeito três dimensões que duplica a transmissão. O sistema 4K é quatro vezes superior aos das atuais TVs Full HD (high definition). A primeira demonstração internacional do sistema aconteceu em dezembro, quando um documentário de 15 minutos foi transmitido de João Pessoa (PB) para o CineGrid International Workshop 2011, um encontro internacional na área de tecnologia para o cinema digital, realizado na Universidade da Califórnia em San Diego (UCSD), nos Estados Unidos. O Fogo Player é resultado de um projeto que começou no início de 2011 e foi coordenado e financiado pela Rede Nacional de Ensino e Pesquisa (RNP), responsável pela internet acadêmica brasileira. O projeto incluiu a produção do filme apresentado em San Diego, realizado pelo Grupo de Trabalho de Criação de Conteúdo Visual, coordenado pela professora da Universidade Mackenzie, Jane de Almeida. Com o título de EstereoEnsaios, o audiovisual mostra vistas aéreas e marítimas do Rio de Janeiro. O vídeo apresenta ainda jovens jogando futebol na quadra da comunidade Tavares Bastos, no Catete, e cenas de ensaios da escola de samba Mangueira. Se fosse só isso, o documentário não teria nada de mais. O que o diferencia é o fato de o curta-metragem ter as imagens captadas por duas câmeras Red Epic para dar o efeito 3D, as mais avançadas do cinema e iguais as que serão usa-

72 

_ março DE 2012

das pelo diretor James Cameron no filme Avatar 2. “As imagens que captamos tem 5.120 x 2.700 (ou 13.824.000) pixels por frame ou 5K – uma TV Full HD atual tem 1.920 x 1.080 (2.073.600)”, explica Jane. Cada frame equivale a um quadro de película fotográfica dos filmes tradicionais. “Como atualmente não existem equipamentos no mundo capazes de projetar imagens com essa resolução, tivemos que fazer um downgrade (reduzir a resolução) delas para 4.096 x 2.304 (9.437.184) pixels por quadro ou 4K.” Mas não é só isso. O vídeo que o grupo de Jane fez foi o primeiro a utilizar essa tecnologia em estereoscopia (3D). “Por isso, embora seja um SHD (super high definition), porque foi feito em 4k, ele tem mais de 20 milhões de pixels por frame”, diz Jane. “Ou seja, em termos de pixels ele é, na verdade, um filme de ultra high definition (UHD) ou 8K.” Quem operou as câmeras foi o estereógrafo americano Keith Collea, que trabalhou com Cameron em Avatar e Titanic. Com ele pronto, o desafio passou a ser como armazená-lo, transmiti-lo e exibi-lo. Foi aí que entrou a equipe do Laboratório de Aplicações de Vídeo Digital (Lavid), da UFPB, coordenado pelo professor Guido Lemos, que havia colaborado para desenvolver o sistema de TV Digital do Brasil, principalmente o subsistema de interatividade conhecido como Ginga. “Nosso primeiro passo foi fazer um levantamento do estado da arte e da técnica na área de cinema digital”, explica Lemos. “Depois, começamos a desenvolver uma solução com foco na manutenção da qualidade em padrão considerado satisfatório para os profissionais de cinema, mas que fosse mais barata que as já disponíveis.” Hoje existem equipamentos ainda não comerciais para armazenar, transmitir e exibir filme de UHD, produzidos por grandes empresas, como a

3 Tb é o tamanho do filme de 15 minutos no formato em superalta definição e em 3D


fotos  jane de almeida / universidade mackenzie

Filme EstereoEnsaios exibido em San Diego, nos Estados Unidos. Abaixo, câmera 4K3D em gravação no Rio de Janeiro

japonesa NHK. O problema é que são muito caros. Para contornar esse problema, Lemos resolveu usar a computação em nuvem (cloud computing). Nesse sistema, em vez de construir e gerenciar centros de processamento de dados próprios ou de grandes empresas são utilizados os serviços computacionais de grandes provedores na internet, como Google, Amazon e Microsoft. Para seu projeto, Lemos montou sua própria nuvem, baseada em máquinas virtuais, usando a capacidade ociosa dos 30 computadores do Lavid, da UFPB. “Na realidade, usamos uma tecnologia desenvolvida por nós em parceria com o Laboratório de Sistemas Distribuídos (LSD) da Universidade Federal de Campina Grande (UFCG), denominada JitCloud (just in time clouds)”, explica. “A ideia é usar recursos amortizados, ou seja, que foram comprados para outros propósitos, e montar just in time clouds para processar os filmes de altíssima resolução. Essa solução baseada em

nuvem para manipulação de vídeos UHD é uma novidade introduzida por nós.” Segundo Lemos, o filme, que ocupa mais de três terabytes (3 Tb) de memória computacional, é dividido em fatias (slices) e armazenadas na JitCloud. “Em seguida usamos uma outra JitCloud para preparar o vídeo para exibição.” Por fim, para o filme ser exibido em rede as fatias são buscadas na JitCloud, sincronizadas e passadas para o sistema Fogo Player. “Nesse sistema é feita a composição final e sincronização das fatias e a entrega das imagens para os projetores 4K exibi-las”, diz Lemos. Para demonstrar que o sistema funciona, a equipe do Lavid utilizou o filme EstereoEnsaios e o transmitiu para o evento em San Diego. Para isso, contou com a rede de fibras ópticas da RNP, que criou uma Rede Local Virtual (Vlan, na sigla em inglês), específica para a transmissão do filme, usando a infraestrutura da Global Lambda Integrated Facility (Glif ), uma organização internacional que facilita a integração de redes de fibras ópticas. Segundo Leandro Ciuffo, da gerência de comunidades e aplicações avançadas da RNP, ao configurar uma Vlan, entre o Lavid e a UCSD, foi criada uma rede como se as duas instituições estivessem em uma mesma rede local. A transmissão aconteceu com uma taxa de 900 megabits por segundo (Mbps). “Dessa forma os pacotes de dados fluem mais rapidamente de uma ponta para a outra da conexão e há menos perdas”, explica Ciuffo. n Evanildo da Silveira pESQUISA FAPESP 193 

_  73


 humanidades _ cidadania

Quando parar é ir para a frente Ciclo de greves entre 1978 e 1992 foi fundamental para a democratização brasileira Carlos Haag

74   março DE 2012

Assembleia de funcionários da Empresa Brasileira de Correios e Telégrafos, na praça da Sé, em 1975

foto  Antônio Gaudério/Folhapress

‘P

ois quem toca o trem pra frente/ também de repente/ pode o trem parar”, escreveu Chico Buarque em Linha de montagem (1980), uma homenagem do compositor ao ciclo de greves iniciado em 1978 na principal área industrial do país, o ABC paulista, após um intervalo de uma década sem nenhuma paralisação. Uma vez iniciado o movimento, seguiu-se uma onda de 20 anos de greves, um ciclo cujo pico, entre 1985 e 1992, fez com que o Brasil apresentasse um dos maiores níveis de paralisações da história dos países ocidentais. O trem parou mesmo de repente: se em 1977 não há registros de greves, no ano seguinte seriam 118 e nos próximos 10 anos mais de 2 mil. Para os economistas, a locomotiva brecou em função de mudanças tecnológicas, PIB, índices de salários e desemprego. Já os sociólogos viam no maquinista um proletário que queria tirar o país dos “trilhos” em que ele estava e, mais do que salário, desejava mudanças estruturais e ideológicas. “A análise das estatísticas das greves mostra que nenhum dos dois dá conta do fenômeno. O ciclo brasileiro de paralisações comportou-se de forma claramente vinculada às características e ao processo de transição política brasileira para a democracia”, explica o cientista político Eduardo Noronha, professor da Universidade Federal de São Carlos (UFSCar) e coordenador do projeto Arquivos das greves no Brasil: análises qualitativas e quantitativas da década de 1970 à de 2000, feito


Ciência Política

pESQUISA FAPESP 193    75


Jorge Araújo/Folhapress

em parceria com o Departamento Intersindical de Estatística e Estudos Socioeconômicos (Dieese), e apoiado pela FAPESP, que gerou um banco de dados completo das paralisações, das reivindicações feitas até o resultado final dos conflitos trabalhistas. Além disso, foram feitas 50 entrevistas com líderes sindicais desde os anos 1960 e que irão gerar três volumes a serem lançados em 2013. “Deu-se pouca atenção à relação entre greves e processos políticos, sobrevalorizando as variáveis econômicas ou tratando as políticas de forma genérica, seja mostrando as greves como expressão de conflitos de classe ou político-partidários”, observa. Segundo ele, a variação do volume de greves não se deve a mudanças menores nos indicadores de emprego, renda ou inflação, ou, no campo da política, às oportunidades de ampliação de demandas nos anos eleitorais. “Isso tudo influencia a explosão de paralisações, mas não basta para explicar os momentos de rupturas de um ciclo de greves”, diz.

P

ara Noronha, as greves fazem parte da trajetória brasileira de democratização, de amadurecimento da sociedade brasileira. “Aqui, as greves não eram só no espírito do ‘abaixo a ditadura’, mas queriam democracia nos lugares de trabalho. Claro que a luta por salários melhores era a grande motivação, mas havia também uma luta pela redução da falta de cidadania dentro das fábricas, onde operários eram desrespeitados. A ditadura também estava nos lugares de trabalho.” Há registros de reivindicações grevistas que pediam a liberdade de ir ao banheiro sem consultar o capataz, entre outros direitos básicos. “As greves, claro, tinham uma dimensão política, mas não partidária. Os trabalhadores queriam um novo status na sociedade brasileira.” A democratização nacional, após um longo período de autoritarismo, instabilidade econômica e superação do modelo desenvolvimentista, é, nota o pesquisador, a chave para entender a onda excepcional de greves. Afinal, desde o início do século XX até o final da democracia populista, os sindicatos brasileiros não foram capazes de promover um ciclo de greves com impacto econômico. Em suas pesquisas, Noronha observou a presença de “marcos políticos e econômicos dos governos federais”, de Geisel a Lula, que mudavam a tendência da opinião pública independentemente das variáveis econômicas tradicionalmente valorizadas na análise dos ciclos grevistas, como emprego e inflação. Os dados mais relevantes para o entendimento do ciclo de greves brasileiro são até certo ponto inéditos, pois resultaram de expectativas coletivas associadas aos marcos das gestões governamentais e, secundariamente, às conjunturas políticas e econômicas de cada ano. “O final da década de 1970 é uma ruptura da 76   março DE 2012

história das relações de trabalho no Brasil. Nada menos provável do que a greve da Scania em 1978 e, no entanto, foi a mais importante delas, por mostrar que as greves eram possíveis e por despertar a opinião pública”, diz. O pesquisador lembra que transições políticas são momentos ideais para ações coletivas pelo crescimento do interesse da sociedade em geral em participar de manifestações públicas. Havia, então, uma insatisfação geral com o governo militar e a mídia comprou o discurso da democracia, incluindo a greve como um instrumento legítimo da sociedade rumo à democratização. “Isso fez com que os marcos de alteração do comportamento grevista no país fossem simultâneos às alterações políticas e institucionais da transição, sendo os principais momentos de ruptura os de 1978, quando os metalúrgicos do ABC forçaram a sua incorporação ao projeto de ‘abertura’ dos governos Geisel e Figueiredo, e 1985, ano da posse do primeiro governo civil do pós-64.” Assim, fatos políticos abalaram ou incentivaram o movimento sindical. “Pode-se observar isso na redução das greves entre 1980 e 1982, explicável não apenas pelo aumento do desemprego, mas também pelo atentado do Riocentro, que mostrou as rupturas entre

Greve dos metalúrgicos de São Paulo (SP) em 1979

O Projeto Arquivos das greves no Brasil nº 2008/03561-5 modalidade Auxílio Regular a Projeto de Pesquisa Co­or­de­na­dor Eduardo Noronha – UFSCar investimento R$ 163.145,89 (fapesp)


Segundo pesquisador, sindicatos recuaram em momentos de crise política para evitar confrontos os militares com o programa de liberalização política. Os sindicatos, então, recuaram, pois entenderam que o momento não era favorável para greves e trocaram o ativismo para a organização interna, que levou à criação da Central Única dos Trabalhadores (CUT), em 1983”, conta Noronha. Outro exemplo, segundo o autor, ocorreu com a queda dos indicadores de greve a partir de maio de 1992, quando surgem as denúncias de corrupção do governo Collor, até o fim do ano, com a queda do presidente. “Isso parece confirmar a sensibilidade dos sindicatos em face de uma nova instabilidade política e reforça a hipótese de que as variáveis políticas são essenciais para se entender uma greve.” Outro marco importante foram as eleições estaduais em 1982. Após um longo período sem diálogo com o Estado, os sindicatos não pouparam os novos governadores oposicionistas eleitos, cobrando-os com greves. “A partir desse contexto em que os riscos da greve haviam diminuído e as oportunidades de ganho aumentado, as paralisações não se concentraram mais no setor privado, mas, em especial, cresceram entre os servidores públicos.” As greves, então, dominam o cenário nacional, já que a tendência dos governos estaduais em consolidar sua legitimidade como lideranças democráticas refletiu-se no nível federal:

Lula discursa na assembleia do Sindicato dos Metalúrgicos em 1980

a disposição à negociação dos governadores era um contraponto à prática repressiva do governo federal. Alguns segmentos do governo, diante das derrotas eleitorais, passaram a se aproximar dos sindicalistas com propostas de reformas da CLT. O governo Sarney, em 1985, legitimou as lideranças sindicais como interlocutores válidos para o Estado e as greves ajudaram a consolidar um novo padrão de relações entre empregados e empregadores com a disseminação das negociações. Mas as greves brasileiras eram movidas por componentes que fugiam ao senso comum. “Os salários, em todo o mundo, são a pauta principal das greves e aqui não foi diferente. No caso brasileiro, porém, as greves aumentam não quando os salários caem, mas quando podem subir. Ou seja, as greves são deflagradas quando os trabalhadores acreditam que seja possível obter ganhos salariais, não importando o quanto os salários são percebidos como baixos ou adequados”, explica. Assim, entre 1988 e 1991, apesar de o rendimento real não ter caído, as greves crescem nos dois setores que, somados, ultrapassaram a marca de 2 mil greves e cerca de 185 milhões de jornadas não trabalhadas. Apesar disso, segundo Noronha, foram raras as paralisações que apresentaram demandas políticas, embora a evolução do nível e do padrão de

Ciclo de greves e transição política Média anual de greves por períodos político-econômicos

1.102

1.126

842 865

440 322

foto CLOVIS CRANCHI/AE

214 43

1960

13

1970

0

1980

1990

2000

2010

fonte projeto arquivo das greves no brasil

pESQUISA FAPESP 193    77


fotos  Arquivo/AE

conflitos estar claramente marcada pelos principais momentos políticos da década de 1980, o que lhes dá outra dimensão além da corporativa. “A flutuação do conflito trabalhista no Brasil seguiu de perto os passos da transição brasileira. Primeiro, porque o movimento sindical avançou (e soube recuar) a cada etapa do processo de liberalização do regime autoritário. Depois, porque a incorporação da classe trabalhadora e da liderança sindical no processo de transição se deu por meio das possibilidades abertas para a expressão de suas demandas, e não pela sua participação nos pactos políticos que definiram a transição. Se a greve não foi o único canal de manifestação desses segmentos, foi a forma mais eficaz de expressão de descontentamento social e político”, avalia. À medida que a classe trabalhadora se tornou capaz de ganhar força sobre os empresários, pegos de surpresa nas primeiras greves, o conflito de interesses entre capital e trabalho cresceu cada vez mais na arena política e menos na industrial. “A eclosão de greves é determinada pela percepção da injustiça associada ao entendimento de que o momento é oportuno para obtenção de ganhos. Houve momentos, por exemplo, em que lideranças tentaram pressionar os trabalhadores à greve sem ressonância e outros em que ocorreu o oposto.” No Brasil, a dispersão sindical e a baixa capacidade das centrais sindicais de coordenar as negociações levam a que a lógica dos sindicatos isolados seja aproveitar os momentos favoráveis de ganho e retrair-se quando as reduções salariais pareçam ser dificilmente reversíveis. “O fim do grande ciclo se liga aos indicadores econômicos mais recentes, desfavoráveis às greves (inflação sob controle e desemprego em alta), à 78   março DE 2012

adesão parcial à ortodoxia liberal e à superação do modelo desenvolvimentista no governo FHC. E também a mudança da percepção pública sobre a pertinência e eficácia das ações coletivas após a democracia brasileira atingir a sua maturidade”, fala Noronha. Hoje, segundo o pesquisador, é provável que novos ciclos ocorram, mas as greves no Brasil entraram na “normalidade”. “As novas condições dos anos 1990 e o avanço das instituições democráticas vão tirar a greve do centro das estratégias dos sindicatos. Atualmente, elas só ocorrem quando os mecanismos de negociação não funcionam, como no setor público, onde há paralisações violentas e longas”, analisa o economista Claudio Dedecca, professor da Universidade Estadual de Campinas, e coordenador do projeto Brasil século XXI, população, trabalho e sociedade. “Não temos mais uma cultura de con-

Metalúrgicos de São Bernardo presos são soltos após o fim da greve da categoria, em março de 1979

jornadas não trabalhadas por períodos políticos MÉDIA ANUAL

Privado

Público

TOTAL

1978-1982 – Início do ciclo e da transição

3.325.400

5.184.216

9.731.400

1985-1989 – Transição Sarney

17.155.167

76.054.028

93.209.195

1990-1992 – Collor ao impeachment

14.897.962

53.787.577

68.685.539

1993-1994 – Itamar

7.000.853

36.465.640

43.466.493

1995-1998 – FHC 1ª (Plano Real)

3.232.128

12.003.755

15.235.883

1999-2002 – FHC 2ª

1.071.971

13.339.569

14.411.540

2003-2007 – Lula

3.299.701

27.722.566

31.022.267

MÉDIA GERAL

7.776.297

36.562.189

44.338.486

fonte projeto arquivo das greves no brasil


flito no mundo do trabalho. A greve dos policiais na Bahia mostrou isso ao não se nacionalizar como era o objetivo dos grevistas”, diz. Para o pesquisador, a greve no Brasil sempre foi complexa. “É possível vivermos numa situação com grande número de empregos e não haver greve, porque as instituições estão funcionando em prol do trabalhador.” O economista lembra ainda que os grandes setores sempre balizaram as greves no passado e como a paralisação deixou de ser uma estratégia, os setores menos organizados têm ainda menos estímulo para parar. “O que faz ainda o Brasil parar é um crescimento nacional que não seja redistribuído corretamente. Logo, a greve só acontece quando os canais de comunicação são limitados e não há diálogo entre as partes”, nota. O aprendizado do diálogo, aliás, foi fundamental para a criação da cultura democrática nacional. “A greve acabou se transformando num elemento de democratização e foram as paralisações que alimentaram a transição política e vice-versa. O Brasil mobilizado nas ruas, nas Diretas ou mais tarde no impeachment de Collor nasceu com as greves do ABC. As greves foram uma escola de como mobilizar as massas, bem como introduziram os trabalhadores e suas lideranças no cenário político nacional”, nota Noronha. Essa novidade política, porém, não foi acompanhada diretamente pela renovação dos mecanismos de negociação. “A partir da redemocratização, as relações trabalhistas passaram a se caracterizar

pelo descompasso entre as instituições trabalhistas e legislativas, ainda arcaicas, e a modernização econômica e social do país. Há setores que fogem a essa regra, como o metalúrgico e o siderúrgico, de sindicatos fortes, que obrigaram as empresas a modernizar a sua gestão de RH se antecipando às necessidades dos trabalhadores. Mas são exceções”, nota o economista Hélio ZylbersEspecialistas tajn, professor da USP e presidente avisam que país do Instituto Brasileiro de Relações de Emprego e Trabalho. “O setor tem mecanismos público está muito longe dessa realidade, ainda imperando um de negociação modelo de greves longas graças a um sistema de negociação que pouco eficientes favorece o impasse. Como o setor não mexe no capital e não impõe custos diretos às duas partes, mas se volta para o público, há pouco interesse em estabelecer mecanismos mais modernos de negociação ou arbitragem.” Segundo Hélio, o país negligenciou a importância estratégica da gestão das relações de trabalho, preferindo o litígio na Justiça. “Há pouco espaço para a negociação prévia e o resultado são as crises como as greves recentes de serviços essenciais, cuja legislação é sempre adiada pelo Congresso. Mas não há interesse nessa regulamentação no setor público em qualquer instância. Afinal, a Justiça do Trabalho não pode Metalúrgicos da Volkswagen do obrigar prefeitos e governadores a sentar a uma Brasil durante mesa de negociação com grevistas e arbitrar, cogreve no ABC mo ocorre no setor privado”, diz o cientista popaulista em 1978 lítico Armando Boito, da Unicamp, coordenador da pesquisa Neoliberalismo e trabalhadores no Brasil: política, ideologia e movimentos sociais. Para o pesquisador, esse movimento é essencial, pois, assegura, o sindicalismo não está em crise, como se apregoou nos anos 1990, mas ativo e grevista. “Em 2003, de todos os acordos fechados, apenas 18% deles resultaram em aumentos superiores à inflação. Em 2009 esse número cresceu para quase 90% em função do aumento de greves com resultados. “São greves amplas, com presença massiva de grevistas, por vezes entre 170 mil e 200 mil, com passeatas por São Paulo. Houve mesmo ocupação de fábricas, um recurso extremo”, avisa. Para Boito, isso ocorre a despeito da estrutura sindical deficiente do país, ligada ao Estado e que vem provocando uma pulverização dos sindicatos em suas bases. “Há um pluralismo na cúpula e unicidade na base. Os líderes sindicais têm grande dependência do Estado e uma relação frouxa com os trabalhadores, com um caráter ainda populista. Há muita greve forçada.” Na contramão de quem acha que o trem não para mais, Boito adverte que o maquinista ainda tem o freio na mão. Mas é preciso, rapidamente, modernizar a locomotiva. n pESQUISA FAPESP 193    79


1

3

1. Cine Pathé, no Rio, em 1918 2. A Illustração Brasileira ensina a se vestir para o teatro, em 1909 3. Cinco gerações da família Souza Barros, em 1920

80 

_ março DE 2012

2


_ Tecidos da história

O figurino que vestia o Brasil do café com leite Trajes antigos desvelam o que a Primeira República escondia por debaixo das roupas

fotos  1. reprodução do livro O brasil de marc ferrez  2. reprodução do livro a revista no brasil  3. reprodução do livro no tempo de dantes

Gustavo Fioratti

E

m algum lugar entre os séculos XIX e XX: crianças mortas, antes de serem enterradas, muitas vezes eram vestidas como pequenos soldados romanos, para que, seguindo crenças religiosas da época, chegassem ao céu prontas para exercer o papel de anjos protetores. Quando uma família ia à praia, as mulheres usavam saias longas e sombrinhas; os homens, calças, camisa e chapéu. E ao percorrer as ruas de uma São Paulo que crescia a todo vapor, vendedores de artigos para o lar adaptavam a moda de Paris para um dia a dia sob o sol. Esses são apenas três recortes de uma vasta memória que o Brasil ainda não tirou por completo do armário. O que se vestiu no passado pode revelar um novo olhar sobre a identidade de um povo, com pistas espalhadas por álbuns fotográficos de famílias, pinturas de museus, cadernos de desenhos, textos literários e revistas antigas. As principais fontes do professor Fausto Roberto Poço Viana, do Departamento de Artes Cênicas da Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP), residem nesse tipo de registro. Desde 2007, ele empreende uma minuciosa busca de imagens e textos que possam estabelecer uma ponte entre indumentária e costumes. O período escolhido para a pesquisa fica entre 1889 e 1930, anos que marcam na história do Brasil o início e o fim da República Velha. As tramas do café com leite é o título do trabalho, em referência às ramificações da já conhecida alternância de mineiros e paulistas na Presidência. Há a intenção de esten-

moda

PESQUISA FAPESP 193 

_  81


um estilo traçado basicamente para invernos mais rigorosos. De qualquer forma, os produtos dessa importação eram adaptados. Em um retrato de 1905 que faz parte da coleção do pesquisador, em primeiro plano e com o largo da Misericórdia ao fundo, duas jovens mulheres passeiam de braços dados. Uma delas usa uma saia que deixa à mostra os tornozelos. “Isso é um pequeno escândalo para aquela época”, diz Viana. “Elas estão andando de braços dados pelas ruas, sozinhas, não há um homem ao lado delas, e estão dando risada. Estão mostrando que a próxima geração vai trazer novidades”, interpreta.

1

2

1. Cesteiro, no Rio, em 1875 2. Caipira acende cachimbo (1911) 3. Dupla de jornaleiros cariocas, em 1899

3

der o projeto de pesquisa para épocas anteriores a essa. A transição de uma vida essencialmente agrária para uma outra, que dava seus primeiros passos em direção à febre da urbanização, determina alguns dos traços desse retrato. Mas o apreço pela moda que vinha da França, e no caso dos homens também pelo estilo inglês, mais do que tudo, propagou por aqui um jeito de se vestir parecido com o de europeus, sobretudo das elites. Essa importação de costumes não significa, para Viana, que o Brasil não tenha criado uma identidade própria. 82 

_ março DE 2012

“Não acho que o fato de trazer uma roupa da França implique necessariamente a perda de uma identidade nacional. Pelo contrário. Se há quem fale que perdemos as cores locais por causa disso, eu digo, espere um pouco: perdemos há quinhentos anos então.” Viana conta que boa parte do vestuário e de modelos de reprodução foi trazida por costureiras e alfaiates estrangeiros, ou ainda por uma elite cheia de dinheiro que fazia compras em Paris. “Até hoje eu peno para entender como é que essa gente aguentava usar essas roupas aqui nos trópicos”, ele diz, em referência a

Na mesma foto, Viana aponta um detalhe. Há pregas na base da saia de uma delas. “Quando ela crescer, vai soltar essas pregas para a saia não ficar curta demais”, explica. Essa prática, continua ele, tornou-se comum em uma época em que o vestuário era considerado patrimônio, herdado dos avós inclusive. Ao recuperar esse tipo de memória, diz Kathia Castilho, presidente da Associação Brasileira de Estudos e Pesquisas em Moda, doutora e mestre em comunicação e semiótica pela PUC-SP, As tramas do café com leite preenche algumas das inúmeras lacunas sobre o tema. “A moda e a indumentária no Brasil ainda são assuntos desconhecidos, falta pesquisa, sobretudo sobre épocas mais distantes.” O passo a passo traçado para a realização do estudo, lembra Castilho, deve fornecer ainda referências para projetos futuros. “Ele revela locais, museus, bibliotecas e publicações que podem, mais para a frente, mobilizar quem se interessa por esse tipo de conhecimento”, aponta. Entre as principais fontes de Viana estão o Museu Paulista da USP, o Museu de Itu, a Biblioteca Nacional do Rio de Janeiro, o Centro de Documentação do Exército, no Rio de Janeiro (para pesquisa de artigos militares) e o arquivo da Cúria Metropolitana de São Paulo (para pesquisa de roupas religiosas). Fotos são sempre aliadas preciosas, com destaque para os trabalhos de Marc Ferrez (18431923), Militão de Azevedo (1837-1905) e Guilherme Gaensly (1843-1928). E pinturas também fornecem informações, como é o caso do quadro Caipira picando

fotos  1. e 3. reproduções do livro O brasil de marc ferrez  2. reprodução do livro lembranças de são Paulo

saia curta demais


fumo (1893), de Almeida Júnior (18501899), que hoje pertence ao acervo da Pinacoteca do Estado de São Paulo. Fora do meio acadêmico, o estudo também pode cunhar um legado, fornecendo material para o mercado de confecções. “A moda é sempre cíclica. Está sempre ressignificando um determinado valor, atualizando valores históricos. Conhecer a nossa história certamente é algo enriquecedor”, conclui a pesquisadora. Viana reitera, no entanto, que não é bem moda o que ele estuda. “Estudo indumentária. Moda é tudo o que surge a partir do processos de comercialização em escala industrial. Diz respeito a um modelo de produção. E o que me interessa é o que as pessoas vestem, não necessariamente moda”, explica. Em outras palavras, interessa a Fausto, além dos manuais de corte e costura da época, o jeito descompromissado de um trabalhador da zona rural, que usa as calças arregaçadas para evitar carrapicho, como mostra uma foto de 1911 publicada no livro Lembranças de São Paulo, de Carlos Cornejo e João Emilio Gerodetti (Studio Flash Produções Gráficas, 1999). Os pobres estão, na coleção reunida por ele, quase sempre descalços. E quan-

Pesquisador se interessa mais pelo que as pessoas vestem do que pela moda, onda passageira ligada ao mercado

do usam sapatos, muitas vezes, é possível notar que aquele mesmo calçado pode aparecer em uma outra foto, nos pés de outra pessoa retratada, o que dá margem a uma conclusão: alguns artigos eram emprestados somente para que o sujeito posasse para o retrato. O mesmo acontecia com bolsas e sombrinhas. Para recuperar imagens de negros, a pesquisa segue outras pistas. Já no século XIX, alguns fotógrafos que se estabelecem no país acabam se especializando em fotografar escravos, não necessariamente para documentação de uma realidade. “Eles vendiam retratos do que era considerado exótico lá fora. Em algumas fotografias, é nítido, você vê os escravos num tal estado de depressão... Eles entendiam o que estava acontecendo com eles.”

Há registros também de negros vestidos tal qual aristocratas. As roupas, nesses casos, também eram emprestadas pelos seus senhores unicamente para que o retrato fosse feito. Mas há casos de famílias que conseguiram prosperar após a Lei Áurea (1888) e aparecem vestidas, mais tarde, em trajes sociais. A pesquisa de Viana surgiu de interesse por assunto vizinho. Ele já havia realizado uma ampla pesquisa de mestrado sobre trajes de cena, sobretudo sobre figurinos de teatro, em um mestrado que, assim como o As tramas do café com leite, teve apoio com bolsa da FAPESP. O estudo O figurino que surge através do trabalho do ator – Uma abordagem prática e outros projetos relacionados ao tema acabaram rendendo, inclusive,

1. Centro do Rio, em 1895

fotos  1. reprodução do livro O brasil de marc ferrez  2. reprodução do livro os fotógrafos do império

2. Imperatriz Tereza Cristina com os filhos, em 1866

1

2

pESQUISA FAPESP 193 

_  83


muito mais velha do que a gente supõe. O próprio Pero Vaz de Caminha [escrivão da armada de Pedro Álvares Cabral] já mostra encantamento de encontrar aqui mulheres nuas”, considera Viana. Os trajes eclesiásticos também ganham espaço, com atenção especial para as vestes previstas pelos códigos da Igreja Católica, embora entrem para a pesquisa referências aos mais variados tipos de religião – do candomblé, por exemplo. Fausto conta que as roupas da igreja foram estabelecidas nos anos 1100 e não mudaram até hoje, com pouquíssimas exceções. No Brasil, por exemplo, o traje

cor-de-rosa não é usado na Páscoa, como acontece em Portugal. Há padrões de confecções que dão pistas sobre a origem de cada peça. Algumas roupas com relevo, por exemplo, indicam o uso de uma técnica desenvolvida na França. Os desenhos eram recortados em tecido, aplicados sobre a roupa e, para o acabamento, bordava-se sobre eles, resultando em texturas. A foto de uma capa pluvial mostra exatamente esse tipo de técnica. Revela também, por conta de um tecido pendurado na parte de trás da peça, que padres saíam pelas ruas debaixo de chuva para

1. Cena da peça Rússia e Japão, em 1900 2. Carnaval de 1900 e a família de industriais Secchi 3. Cena de A comédia do coração, de Paulo Gonçalves, em 1925 4. Grupo de músicos mineiros, em 1875

1

2

84 

_ março DE 2012

3

fotos  1. e 3. reprodução do livro imagens do teatro paulista  2. reprodução do livro são paulo – 450 anos luz  4. reprodução do livro os fotógrafos do império

tema específico dentro da atual pesquisa para o As tramas do café com leite, que se subdivide nos seguintes tópicos: indumentária teatral, regional, de folguedos, das atividades sociais, das atividades profissionais e roupa íntima interior. A classificação segue princípios de trabalho do Instituto Português de Museus, consultado por Viana em 2010, durante seu doutorado em museologia, realizado na Universidade Lusófona de Humanidades e Tecnologia. O último item da classificação (sobre roupa íntima), diz Fausto, tem lhe causado dificuldades extras, principalmente porque, por hábito, roupas íntimas ou eram usadas até o desgaste completo, ou acabavam na lata do lixo. Há, no entanto, uma fonte inesgotável para a recuperação de memórias mais íntimas: são os cartões-postais eróticos, que, na época, eram comercializados principalmente em bordéis. “Para minha sorte, naquela época, esse tipo de material nunca apresentava a mulher totalmente nua”, diz Viana. “A mulher era sempre fotografada com a roupa interior”, completa. Os postais eram vendidos no cais do porto e atestam uma fama: “A cultura de que somos o país das delícias, de que o Brasil é um país de libertinos, para onde você vinha ter uma vida sexual ampla, é


Após concluir a pesquisa, Fausto Viana pretende organizar uma exposição com réplicas de trajes 4

abençoar seus fiéis. Esse pano funcionava como uma cobertura para a cabeça, mas acabou, com o passar do tempo, perdendo função e ganhou uso decorativo. tempos de luto

Outra foto da coleção de Viana mostra a família da proprietária de terras Veridiana da Silva Prado (1825-1910). Um filho que morreu está representado por uma fotografia colocada em um porta-retrato, junto à família. E dona Veridiana, em primeiro plano, usa um pesado vestido preto. “Quando morria um filho, a mulher ficava de luto para o resto da vida. Isso só foi flexibilizado depois da década de 1930, quando o tempo de luto vai sendo reduzido”, conta Viana. Esse tipo de retrato não revela com fidelidade quais roupas eram usadas no dia a dia, pois era condicionado a uma série de preparativos. Ou seja, vestia-se daquele jeito especialmente para fazer o retrato. Fotos in loco, como a de um gru-

O Projeto As tramas do café com leite nº 2006/057161-2 modalidade Auxílio Regular a Projeto de Pesquisa Co­or­de­na­dor Fausto Viana – USP investimento R$ 95.636,00 (fapesp)

po que passa em visita a uma estação de trem em construção, tem mais valor para Viana. “Nesse retrato [ele aponta para os homens parados em frente à obra] a gente consegue ler a roupa do dia a dia. Mas claro que não tem um pobrezinho aqui”, ironiza Viana, em referência à fartura de opções protagonizadas pelas classes mais abastadas. No período retratado há ainda um fato histórico que determina uma série de mudanças. Com o início da Primeira Guerra Mundial, viagens para o exterior passam a ser pouco frequentes. Minguam também as importações de tecidos, que vinham sobretudo da Inglaterra e da França. Como consequência, começam a diminuir, no Brasil, o tamanho das roupas, que vão ganhando contornos mais leves. Na década de 1920 algumas mulheres, por exemplo, já passeiam pelas ruas mostrando braços e parte das pernas. Para a conclusão da pesquisa, Viana pretende organizar uma exposição com réplicas de trajes históricos a partir de material aproximado. Trata-se de um formato já experimentado em Trajes em cena, que resultou em mostra de figurinos abrigada pelo Teatro Municipal de São Paulo em 2004, com reconstituições de peças históricas do século XX. Durante a pesquisa do projeto As tramas do café com leite, Viana deparou ainda, no Museu Nacional do Rio de Janeiro, com os registros feitos por uma pesquisadora chamada Maria Sofia Jo-

bim Magno de Carvalho (1904-1968), uma série de encadernações que reúnem farto material sobre indumentária. Maria Sofia pertencia a uma família de aristocratas, formou-se professora e fundou, no Rio de Janeiro, o Liceu Império, escola de artes femininas, onde foi diretora por 20 anos. Com o nome artístico Sophia Jobim, passou a se dedicar a uma pesquisa que articulou assuntos sobre arte, pedagogia, roupas e costumes. Sophia estudou no Carnavelet de Paris, no Metropolitan Museum de Nova York e no museu Benaki, em Atenas. Pesquisou arte bizantina no Museu Bizantino de Atenas e Grécia. Trabalhou ainda como desenhista de trajes para cinema, como os de Sinhá moça (1953), da Vera Cruz de São Paulo. Nas diversas viagens que realizou pela Europa, pelo Oriente Médio, pela Ásia e pelas Américas coletou peças antigas, joias, objetos de uso pessoal, assim como indumentárias típicas e regionais. “Ela era uma exímia desenhista, muito cuidadosa e minuciosa em seus registros”, diz Viana. Os desenhos e os textos reunidos por ela em fichários dão agora material para novas pesquisas de Viana. Algumas raridades fogem tanto à época retratada pelo As tramas do café com leite como à restrição de falar sobre indumentária no Brasil. Também pelo volume e pela riqueza de material, resultam em um projeto à parte, Cadernos de Shophia, que propõe uma revisão desse acervo. n pESQUISA FAPESP 193 

_  85


AFP PHOTO / ARCHIVES

Villa imita “chorão” e “quadro cubista” em Paris


_ a pátria em sons {

O homem que precisou inventar um Brasil

Pesquisas contestam visão da obra de Villa-Lobos como mero

nacionalismo exótico

N

a contramão do que Brecht colocou na boca de seu Galileu, às vezes “infeliz é o herói que precisa de seu país”. Uma corrente recente de estudos musicológicos vem revelando que Heitor Villa-Lobos (1887-1959) foi, de certa forma, “vítima”, ainda que por vontade própria, dessa inversão ao esforçar-se em assumir o papel do “messias nacionalista” tão aguardado pela modernidade brasileira a partir dos anos 1920. “Uma escuta meramente nacionalista de sua obra é restritiva e ligada a um contexto social e histórico que não é mais o nosso. É preciso desconstruir o elo entre a música de Villa e a edificação de um Estado-nação em favor de uma análise propriamente musical”, afirma o sociólogo Leopoldo Waizbort, professor titular do Departamento de Sociologia da Universidade de São Paulo (USP). O pesquisador está finalizando o projeto Villa-Lobos nacional e cosmopolita, feito na Universidade de Berlim com uma Bolsa no Exterior concedida pela FAPESP. “O nacional em Villa é uma construção interessada. A escolha nacionalista estava enraizada em chão histórico e ele só foi ‘nacional’ em meio a um contexto que o modelou dessa maneira. Quando ele compõe o Brasil nos

Choros, responde a uma exigência que vinha do público, que é quem o sustenta. Trata-se menos de uma brasilidade que se exprime musicalmente em sua obra do que uma obra que pretende criar e revelar uma identidade musical para a nação”, explica. Em outras palavras, não é do estilo nacional que brota o estilo individual do músico, mas antes um estilo individual que modelou um estilo nacional. “Villa queria achar seu lugar na música universal. Mas ao chegar a Paris, em 1923, apesar da bravata de que ‘vinha para ensinar e não para aprender’, descobriu que era apenas ‘mais um’ em meio a muitos músicos também vindos de países periféricos e com obras semelhantes. Ficou então claro que a única chance de se diferenciar era ‘vender’ seu produto como compositor nacional. Foi na França que Villa virou ‘brasileiro’”, observa o pesquisador. Passou a explorar o exotismo da “brasilidade” para garantir sua sobrevivência pessoal e ter a chance de mostrar ao público o que tinha a oferecer como compositor. Desde o começo Villa percebeu que sua carreira de músico e, logo, a possibilidade de compor dependiam de um público que o sustentasse, seja em Paris, seja no Brasil, onde se buscava há tempos alguém que fosse o ícone

música

pESQUISA FAPESP 193    87


O compositor ao piano, em 1957: exotismo externo escondia experimentos

musical que faltava no processo de invenção da moderna cultura nacional. “A valorização do exótico, tão forte para um artista estrangeiro vindo da remota América, tinha eco em todos os círculos da capital francesa. Ao mesmo tempo, os brasileiros que conviviam com Villa na França, como Tarsila do Amaral ou Sérgio Milliet, adotaram uma atitude positiva em relação à produção de arte ‘nacional’. Foram esses elementos que convenceram o compositor da imperiosa necessidade de sua conversão, de sua transformação em compositor de música de caráter nacional”, diz o antropólogo Paulo Renato Guérios, da Universidade Federal do Paraná (UFPR), outro integrante do grupo “revisionista” do nacionalismo de Villa e autor de Villa-Lobos: o caminho sinuoso da predestinação (FGV, 2003). Assim, o fato de o compositor ter começado a compor músicas com sotaque brasileiro a partir de 1923 deveu-se não à descoberta de que ele teria uma essên-

88    março DE 2012

fotos  1. Breitenbach/Pix Inc./Time Life Pictures/Getty Images  2. Bettmann / CORBIS

essa música, e sim essa música que modela e cria o, ou “um”, Brasil. “Ou, em outros termos: não é do estilo nacional que brota o estilo individual, mas antes é um estilo individual que modela um estilo nacional”, diz o pesquisador. A repercussão foi ainda maior quando os músicos populares, como Tom Jobim e outros, foram beber nessas sonoridades e, por sua vez, criaram sons como a bossa nova, ouvida no globo como a música brasileira por excelência, um mérito oculto de Villa. “Há muitos desafios para retirar o verniz ideológico e ufanista que cobriu por anos a obra de Villa-Lobos, em especial a de que o seu maior mérito esteja em seu caráter nacional, identificável pelo uso de melodias folclóricas e usos eventuais de ritmos da música popular”, observa o musicólogo Paulo de Tarso Salles, outro notável “revisionista”, professor da ECA-USP e autor da pesquisa Villa-Lobos: processos composicionais. “Também é preciso mostrar para as pessoas que as qualidades de certas obras de Villa não são resultado de mero casuísmo, mas de trabalho de composição sintonizado com as grandes questões musicais da época e que o suposto ‘caos’ de sua mú1 sica não é fruto de ‘ingenuidade’ ou falta de técnica, mas uma feitura intencional que exigiu uma carga pesada de trabalho e estudo. Negou-se a sua obra Compositor descobriu-se uma densidade intelecbrasileiro em Paris, para tual: para os estrangeiros, era apenas um proachar seu lugar no mercado duto caótico, fruto do acaso, como tudo que aconteceria no Brasil”, observa. Daí, avalia Salcia brasileira, mas sim a um processo de les, negar-se a ele e à sua obra o mesmo transformação acionado por uma série estudo respeitoso dado a Stravinsky e de mecanismos sociais de atribuição de Bartók, com quem a sua produção diavalor. “Por isso o projeto dos franceses loga. “Um desdobramento inesperado para uma arte brasileira foi aceito por ele de sua estratégia em se transformar em com naturalidade. Ele queria ser aclama- símbolo nacional e exótico, que acabou do pelo establishment parisiense, que res- estigmatizando a sua música. Afinal, na peitava”, nota Guérios. “Basta perceber sua época, não havia uma musicologia que não foi à nação brasileira que a mú- local capaz de dar conta do que ele fazia sica de Villa deu corpo em forma de som, e tudo se reduziu ao nacionalismo. Ele antes foi o contrário: sua música imagi- sofreu com a falta de debates e com a nou uma nação e a sonorizou, inclusive mitologia que ele construiu e que consimaginando-a contraditória e comple- truíram ao seu redor.” Para Salles, ouvir Villa é ir além das xa, com suas florestas, assobios, danças, índios, crianças”, lembra Leopoldo. melodias e dos ritmos sincopados dos Não é o Brasil, então, que modela e cria chorões, identificáveis em algumas peças,


elementos superficiais que dão cor local, mas não são os aspectos mais importantes de sua obra. “Ele criou música em que se ouvem fisicamente o som, a temperatura da paisagem sonora brasileira e sua imagética. Afinal, era um brasileiro. O mais importante, porém, para entender suas composições é a sua autonomia. Ele teve formação musical, mas nunca foi obrigado a se ligar a uma ‘escola’ musical, não precisando dar satisfações sobre seus processos composicionais. Assim, suas escolhas estéticas se baseavam apenas na sua visão, o que faz dele um fundador de um modo de compor baseado no ‘eu escuto e faço’, que será visto como caos e barbarismo”, avalia Salles. fugindo do destino

Logo, o nacional de Villa é o fato de ele ser brasileiro, de ter convivido com músicos populares e ter uma impressionante segurança de criar, fugindo ao destino de boa parte de seus contemporâneos, sufocados por escolas e por modelos estrangeiros, ainda que não se possa negar sua capacidade de “deglutir” o que se produzia de moderno na Europa. “Mas o elemento nacional não era o que mais o interessava”, diz Salles. O que acabou fazendo de Villa um “messias nacionalista” imperfeito que não agradou a nacionalistas como Mário de Andrade, para quem a pesquisa do folclore como fonte de reflexão temática era essencial para a criação de uma música nacional que, num segundo momento, seria universalizada pela sua difusão global. Para o autor de Macunaíma, porém, o exotismo era um “pecado” imperdoável, pois destruía a singularidade da nação brasileira. Assim, após ter chamado Villa de “Homero brasileiro”, Mário afastou-se dele, celebrando Camargo Guarnieri como o verdadeiro músico nacional.

O Projeto Villa-Lobos nacional e cosmopolita nº 2010/01907-1 modalidade Bolsa no Exterior Co­or­de­na­dor Leopoldo Waizbort – USP investimento R$ 31.354,93 (fapesp)

2

Villa com Mindinha nos EUA, em 1948, diante do cartaz da estreia da opereta que fez para os americanos

Ao afirmar que “o folclore sou eu”, Villa deixou claro que não estava disposto a se sujeitar ao esperado pelos modernistas paulistas. “Ele é o criador que inventa sua música e inventa o folclore em um único e mesmo ato. Pouco importa que o canto do uirapuru não seja reproduzido por ele com precisão ornitológica como teria feito Messiaen. Importa, sim, a eficácia simbólica como marcador identitário. Está pressuposto que aquele som é o canto do pássaro; está pressuposto que o canto do uirapuru é índice do Brasil; está pressuposto que o uirapuru não canta como os pássaros de lá; e está pressuposto que os ouvintes sabem reconhecer e legitimar tudo isso”, observa Leopoldo. “Longe de tirar o mérito musical de Villa, isso só o reforça, pois apesar de todos esses pressupostos, se não fosse a força expressiva daquela música, tudo desmoronaria.” O compositor sempre deu atenção aos procedimentos composicionais, mas tudo foi deixado de lado em favor da mitologia. “Para entender melhor isso, basta ouvir os Choros, dos anos 1920, e as Bachianas brasileiras, escritas entre 1930 e 1945. Nos

primeiros, tudo é ousadia; nas outras a sensação é de um conservadorismo palatável. Villa jurava que as duas séries expressavam o Brasil. Mas como se são tão diversas? �� como se pode perceber que o ‘nacional’ é uma construção, variável, fruto da imaginação individual do compositor e não reflexo do ‘povo’ ou do ‘folclore’, ambos por sua vez outros constructos ideológicos, históricos e sociais”, nota o pesquisador. A obra Amazonas é igualmente emblemática. “Ele foi além de tudo o que havia sido feito em termos de Brasil, mas o passo decisivo não foi a utilização de temas ou melodias brasileiras, mas a criação de uma sonoridade, de texturas que, metaforicamente, podem ser associadas com sons ouvidos nas florestas. O mais provável é que o título nos empurre para esse campo. Mas não se pode reduzir a isso as potencialidades musicais da partitura, onde estão as verdadeiras forças sonoras”, nota Salles. O pesquisador colocou a gravação da peça para públicos diversos, incluindo-se crianças, sem citar o compositor ou o título. “As pessoas ouviram de ‘florestas’ ao deserto do Saara, ‘vítimas’ do mistério maravilhoso da música, que pode tanto exaltar multidões, como o Wagner tocado durante o nazismo, como nos fazer sonhar.” Para tudo isso não é preciso algo tão restrito como um país, mas talento, uma virtude universal. n Carlos Haag pESQUISA FAPESP 193    89


memória

Eco da Revolução Industrial Há 142 anos nascia a primeira fábrica moderna de São Paulo, movida a vapor Neldson Marcolin

90 | março DE 2012

N

o Brasil de 1885 “todo mundo” sabia fiar, observou um funcionário consular estrangeiro da época, segundo um ensaio de 1976 escrito pelo historiador e brasilianista norte-americano Warren Dean. A prática vinha de um tempo em que havia poucas fábricas de fiação e tecelagem no país, e a maioria das famílias precisava conhecer essa arte para confeccionar as próprias roupas. Na Inglaterra, as fábricas têxteis existentes no século XVIII utilizavam energia hidráulica e ganharam um impulso maior em 1785, quando foram as primeiras a usar motores movidos a vapor – as estrelas da Revolução Industrial. No Brasil, uma das mais bem-sucedidas aplicações da máquina a vapor se deu na fábrica de tecidos São Luiz, em 1869. Fundada em Itu, no interior paulista, foi a primeira indústria que poderia ser chamada de moderna no estado e tornou-se modelo para outros empreendimentos semelhantes.

Fachada parcial da fábrica São Luiz, de 1869, com a chaminé de 15 metros: exemplo para outros empreendimentos


A maior contribuição da São Luiz foi utilizar um motor a vapor que fazia funcionar máquinas de desencaroçar algodão, de fiação e de tecelagem. “Por não depender de energia hidráulica, as fábricas com a nova técnica poderiam ser construídas em qualquer lugar e não mais necessariamente à beira de rios”, diz a historiadora especializada em arqueologia industrial Anicleide Zequini, do Museu Republicano Convenção de Itu, uma extensão do Museu Paulista da Universidade de São Paulo. “Outra consequência importante foi mostrar que o trabalho livre e remunerado funcionava bem e a mão de obra escrava não era fundamental na indústria que começava a se formar.” A instalação de fábricas têxteis nas regiões de Itu e Sorocaba – a maioria delas utilizando energia hidráulica – se deu pela necessidade de fabricação de tecidos e sacaria, mas também em consequência da guerra civil

norte-americana (1861-65), que impediu a exportação de algodão bruto para a Europa. Ingleses da São Paulo Railway, ferrovia que ligava o planalto ao porto de Santos, viram no Brasil uma alternativa de importação do produto e incentivaram o plantio da cultura. A São Luiz teve cinco fundadores. O maior acionista, Luiz Antonio de Anhaia, foi o idealizador do projeto. Tudo foi comprado nos Estados Unidos da companhia Lidgerwood: projeto da planta, maquinaria, planejamento e treinamento para os trabalhadores. A fábrica, com uma chaminé de 15 metros, começou com 62 máquinas, entre as quais 24 teares. A caldeira gerava o vapor que fazia funcionar o eixo do sistema de transmissão que atravessava o salão onde ficavam os teares. Cada tear era ligado a esse eixo por uma correia. Ao girar, o eixo movimentava a correia, que acionava o tear manuseado por operárias. “Em 1873 trabalhavam no local

Calandra, máquina remanescente do início do século XX. Dava acabamento, melhorava o toque, o brilho e o encolhimento do tecido

fotos  leo ramos

Fornalha (à esq.), que recebia a lenha para queima, e caldeira (abaixo), que gerava o vapor. Ambas do século XIX

24 mulheres, 10 homens e 18 meninos”, conta Anicleide. A produção era destinada às roupas de escravos, de trabalhadores rurais e ao ensacamento de sal e café. Em 1903 a fábrica passou a funcionar também com energia elétrica. Esteve ativa até 1982 e foi tombada como patrimônio histórico. Hoje é propriedade da família Pacheco Jordão, usada para eventos culturais ou de moda. Importante para São Paulo, a São Luiz não foi a primeira fábrica brasileira a usar motor a vapor. De acordo com os historiadores Francisco Foot Hardman e Victor Leonardi em História da indústria e do trabalho no Brasil: das origens aos anos 20 (Global Editora, 1982), no Rio de Janeiro a fábrica São Pedro de Alcântara utilizava o vapor desde 1852. Na Bahia, a Conceição dos Mares funcionou com energia hidráulica e a vapor na década de 1840. PESQUISA FAPESP 193 | 91


resenhas

Entre os salões e as salas de aula Carlos Haag

92 | março DE 2012

fotos eduardo cesar

D

esde os tempos do barão que sil junto às Nações Unidas (1999diplomacia é sinônimo de co2003), embaixador em Santiago nhecimento. Há quem diga (2003-2006), cônsul-geral em Maque foi a familiaridade de Rio Branco dri (2006-2009) e é professor do com mapas e com o passado obscuro Instituto Rio Branco e colaborador de nossos vizinhos a responsável pelo do Programa de Pós-graduação em seu sucesso em questões fronteiriças, Relações Internacionais da Uerj mais do que a realidade dos fatos. O (PPGRI-Uerj). Esse seu presente barão, aliás, fazia questão de cercar-se universitário, aliás, é prova cabal das melhores cabeças do seu tempo de que suas opiniões do passado para tomar decisões de política exeram válidas. Mas quando as deterna. Joaquim Nabuco, Rui Barbosa, fendeu o ensino de relações interGraça Aranha, Euclides da Cunha, nacionais engatinhava nos meios entre outros, eram chamados a opinar acadêmicos e não havia, como agoainda que sem serem diplomatas de Diplomacia e academia ra, a intensa proliferação de curcarreira. A sabedoria continuou mar- Gelson Fonseca Junior sos sobre o tema. Tampouco havia cando a história do Itamaraty, até ho- Funag grande simpatia federal com a de246 páginas, R$ 42,00 je visto como o lugar por excelência mocratização da política externa para se exercer a política externa nacional, apesar ou o interesse atual do público sobre sua conda instituição recente da diplomacia presidencial. dução. Mas Gelson já preconizava: “Em termos Mas a globalização atropelou o ritmo polido do ideais, o fortalecimento da democracia supõe que passado. O Ministério das Relações Exteriores os diversos setores da sociedade civil tenham inagora é obrigado a consultar a sociedade e, como teresse e capacidade para dialogar com o Estanos tempos do barão, contar com a colaboração de do e moldar as decisões em todo o espectro das especialistas, na medida em que as negociações en- atividades governamentais”. Segundo ele, foi o volvem cada vez mais fatores técnicos que fogem discurso acadêmico sobre a diplomacia brasileira ao escopo de aprendizado dos diplomatas. o primeiro a defender a necessidade de ampliar Mas há 30 anos era uma temeridade imaginar a participação civil no processo de formulação o círculo cerradíssimo do Itamaraty abrindo suas diplomática. Longe de ver os novos estudiosos da portas para o mundo externo da realidade interna. diplomacia como uma ameaça, Gelson afirmou ao Ainda assim, o diplomata Gelson Fonseca Junior Itamaraty que eles eram uma influência positiva teve a ousada intuição de avisar a Casa que os a ser apoiada, mesmo quando críticos. Seu ponto de vista convidava a instituição a tempos estavam para mudar e, com eles, o próprio Itamaraty. Em sua tese, que apresentou no âmbito tomar uma posição: rejeitar o processo, que ele do Itamaraty, Diplomacia e academia, um estudo vê como irrefreável; ou fazer da academia um sobre a política externa brasileira na década de interlocutor, um parceiro necessário. A junção afirmaria que a instituição defendia 1970 e sobre as relações entre o Itamaraty e a comunidade acadêmica, que acaba de ser lançado o modelo democrático. O novo interlocutor não em livro pela Fundação Alexandre de Gusmão restringiria a autonomia da Casa, mas ampliaria a (Funag), o futuro embaixador, antes do impacto participação social em suas decisões, traria mais da globalização e em pleno regime militar, afir- interlocutores da sociedade civil, um movimento mava a necessidade da integração entre os dois que, previa Gelson, seria necessário para legitiuniversos, tendo como objetivo a democratiza- mar a política externa. “Não haverá boa política ção da política externa, uma questão ainda hoje externa sem uma chancelaria que saiba convencer internamente, que pratique política de raízes polêmica entre os diplomatas. Gelson foi conselheiro diplomático da Pre- sociais firmes.” Mesmo que não concordasse, o sidência da República do Brasil (1990-1991 e barão ficaria satisfeito com um conselheiro des1995-1999), representante permanente do Bra- ses, dono de uma visão tão precisa do futuro.


De Galileu a Pelé

Um passeio pelo Jardim Botânico

N

H

um país em que alguns atletas se vangloriam de ter matado aula na infância para jogar bola, Física do Futebol: Mecânica mostra que a paixão pelo esporte não precisa ser necessariamente incompatível com o gosto pelos estudos. Os autores do livro, Marcos Duarte, físico e pesquisador dos movimentos do corpo humano da Universidade Federal do ABC (UFABC), e Emico Okuno, também física e professora aposentada da Universidade de São Paulo (USP), usam os elementos do futebol — o campo, a bola, os jogadores, as regras, os diferentes tipos de passe e movimentação — para ilustrar os conceitos de física ensinados no primeiro ano do ensino médio. De caráter paradidático, a obra está dividida em quatro capítulos: força, movimento, energia e fluidos. Não se trata de um livro ligeiro, de entretenimento, embora o texto seja leve e agradável e não faltem gráficos, figuras e imagens que ajudam o leitor a enxergar as relações entre os dois mundos, o da física e o do futebol. Seu intuito é ensinar mesmo e os autores passam em revista as principais ideias e fórmulas matemáticas da mecânica — do eixo de coordenadas cartesianas e do teorema de Pitágoras até a força de arrasto e o princípio de Bernoulli (a pressão de um fluido sobre uma superfície é inversamente proporcional à sua velocidade). Além de fornecer exemplos do futebol para explicar física, o livro adota outro recurso para atrair o leitor. Em cada capítulo, há pinceladas históricas sobre personagens da ciência e dos gramados. Microbiografias de Galileu, Newton e Einstein dividem as páginas com as trajetórias de Pelé, Garrincha, Didi e Zico, entre outros. No final da obra, há um quadro com imagens e explicações sobre como eram as bolas de futebol em cada Copa do Mundo e por que os jogadodores atuais têm a impressão de que as pelotas de hoje são mais leves do que as do passado. Mesmo para quem não gosta de física ou de futebol, a obra de Duarte e Emico reserva lances interessantes. Ciência e esporte é uma tabelinha que, quando bem feita, pode resultar em gol. Marcos Pivetta

Física do Futebol: Mecânica Marcos Duarte e Emico Okuno Oficina de Textos 144 páginas R$ 55,00

Jardim Botânico de São Paulo Juan Esteves e Maria Guimarães Editora Terceiro Nome 202 páginas R$ 92,00

á de tudo um tanto em São Paulo. Pessoas apressadas, trânsito parado e comidas variadas. Ar poluído, gente de visual ousado e muito concreto armado. E também cabriúvas encorpadas, ipês floridos e diademas delicados. Jerivás, bromélias, lírios e muitas outras espécies de plantas que quase passam despercebidas por quem vive na maior metrópole brasileira. A bióloga e jornalista Maria Guimarães, editora da Pesquisa FAPESP on-line, e o fotógrafo Juan Esteves convidam todos a fugir da paisagem inóspita da cidade e a mergulhar no estonteante mundo de formas, cores e aromas variados do Jardim Botânico de São Paulo, no livro de mesmo nome lançado em fevereiro. Guardado por um discreto portão próximo ao Zoológico, o Jardim Botânico paulista é o segundo mais antigo do país. Foi criado em 1928 pelo orquidófilo Frederico Carlos Hoehne com o apoio de Fernando Costa, à época secretário estadual de Agricultura. Ali vivem 20 mil espécies de plantas, nativas e exóticas, em uma área de 360 mil metros quadrados que integra o Parque Estadual das Fontes do Ipiranga. Ao lado de imagens históricas e aquarelas de plantas, o texto de Maria Guimarães e as fotos de Juan Esteves guiam o leitor por um delicioso passeio pelo Jardim Botânico. Logo além do portão uma fileira de solenes jerivás acolhe quem vem da metrópole e o conduz ao museu João Barbosa Rodrigues, onde estão expostas sementes e folhas de plantas, além de ilustrações e documentos que contam a história do Jardim Botânico paulista. Mais adiante chega-se à joia da casa: as estufas inglesas de ferro e vidros curvos, onde se podem ver samambaias e orquídeas. Dali se alcança o Jardim de Lineu, o Bosque do Pau-brasil e o Lago das Ninfeias, que abre caminho para um trecho remanescente de mata atlântica pelo qual se pode caminhar. Tudo isso a 12 quilômetros do centro de São Paulo. Como escreve Maria, “basta passar pelo portão para chegar, como por um passe de mágica, a um novo mundo”. Ricardo Zorzetto PESQUISA FAPESP 193 93


Arte

Um museu de muitas vocações Acervo diversificado, com obras-primas modernistas e experimentações contemporâneas, norteia as ações do MAC Maria Hirszman

O

Museu de Arte Contemporânea (MAC) está de casa nova. Acaba de inaugurar sua sede no Parque do Ibirapuera, onde ocupará o prédio de 35 mil metros quadrados de área que no passado sediou o Detran e que foi totalmente reformado para transformar-se em espaço expositivo. A instituição tem diante de si o desafio de ocupar e dinamizar esse espaço nobre, sem esquecer que continua sendo antes de tudo um museu universitário, cuja principal missão é estimular a pesquisa e reflexão sobre a arte moderna e contemporânea brasileira, tendo por eixo central seu valioso acervo, de cerca de 10 mil obras. O núcleo de excelência dessa coleção são as pinturas e esculturas doadas à Universidade de São Paulo (USP) em 1963 por Ciccillo Matarazzo, provenientes do Museu de Arte Moderna (MAM) e da coleção particular do mecenas, às quais se somam uma série de aquisições e doações acumuladas ao longo de meio século de existência. É a partir desse conjunto amplo e diverso de trabalhos que todas as ações do MAC são pensadas, diferenciando-se assim do modelo cada vez mais arraigado no país de oferecer um cardápio diversificado de exposições, adquiridas como pacotes fechados no circuito internacional das artes com o objetivo de atrair cada vez mais público e patrocínio. “Um museu de arte contemporânea, como é o MAC-USP, deve ter como baliza histórico-crítica o seu próprio acervo. Será ele que ajudará a dar a dimensão histórica às obras que venham a ser exibidas em seus espaços”, afirma o diretor da instituição, Tadeu Chiarelli, ao descrever o partido adotado para o museu em sua gestão. Nessa nova fase, de ocupação paulatina da nova sede, todas as exposições programadas seguirão esse princípio. A primeira delas, O tridimensional no acervo do MAC: uma antologia, já foi inaugurada em janeiro e reúne um recorte de 18 obras do acervo. Em meados deste ano, cada uma das cinco 94 | março DE 2012

1

curadoras do museu proporá uma leitura expositiva da obra de artistas representativos do acervo: Rafael Costa será revisto por Helouise Costa; a mostra consagrada a Julio Plaza terá curadoria de Cristina Freire; Carmen Aranha se debruçará sobre a produção de Leon Ferrari; Ana Magalhães e Kátia Canton desenvolvem mostras sobre a obra de José Antonio da Silva e Di Cavalcanti, respectivamente. Outras exposições, de cunho coletivo ou enfatizando a obra de autores específicos (como Carlito Carvalhosa e Mauro Restiffe) serão pouco a pouco abertas, ampliando significativamente a ocupação do novo espaço e a presença do MAC no circuito expositivo paulistano. Segundo Chiarelli, é evidente que o MAC também tem interesse em aumentar seu número de visitantes, mas não necessita ter uma preocupação obsessiva com a quantidade de público, já que não depende de verbas de patrocinadores para sobreviver. “Isso faz com que possamos nos dedicar com mais afinco à qualidade da experiên-


2

3

1. Detalhe da mostra educativa Escultura aventura, apresentada na sede do museu na Cidade Universitária 2. São Sebastião (Marighela), obra de Sergio Ferro (1969/1970), foi destaque da mostra Um dia terá que ter terminado, do ciclo de exposições sobre a arte durante o período militar

fotos  divulgação / mac

3. Panorama da exposição Modernismos no Brasil, em cartaz no espaço que o MAC ocupa no terceiro andar da Bienal

cia do público ao visitar o museu”, acrescenta. No caso do MAC, portanto, trabalho educativo não se restringe a orientar ou fornecer subsídios pontuais aos visitantes, e a ênfase no acervo vai muito além da questão da programação expositiva. Aspectos distintos, relacionados ao ensino e à pesquisa, pautam também a complexa vida organizacional e os vários projetos desenvolvidos pela equipe curatorial. Como explica Ana Gonçalves Magalhães, “as atividades de docência, pesquisa e curadoria estão e devem ser integradas, o que significa que, talvez, a primeira forma de extroversão da pesquisa se dá com a formação de profissionais nas áreas afins ao museu”. Formação esta que tem caráter interdisciplinar e envolve em diversos momentos outras unidades afins. Cada curadora desenvolve projetos de amplo fôlego, com o apoio de instituições de fomento, como a Fapesp. Ana Magalhães, por exemplo, vem trabalhando na atualização do catálogo do museu e reavaliando algumas obras a partir de estudos científicos desenvolvidos em parceria com Instituto de Física da USP. Kátia Canton, a mais antiga curadora-docente do MAC, se dedica desde meados dos anos 1990 a acompa-

nhar a jovem produção contemporânea e sua relação com a produção que a antecede. Essa pesquisa, intitulada Heranças contemporâneas, já rendeu uma série de exposições e publicações. Cristina Freire se dedica a estudar a arte conceitual; Carmen Aranha trabalha com a mediação entre arte e público; e Helouise Costa dedica-se com mais afinco ao campo da fotografia. Além das linhas de pesquisa específicas, a equipe também desenvolve alguns projetos de caráter coletivo e com grande capacidade multiplicadora. Exemplos disso são o ciclo de mostras sobre a arte brasileira no período militar, desenvolvido em parceria com Ana Magalhães, Cristina Freire e Helouise Costa – duas das três mostras já foram realizadas e uma terceira está em preparação – e o evento MAC em obras, em cartaz na sede do Ibirapuera. A iniciativa congregou diferentes aspectos de funcionamento do museu, servindo quase como uma síntese metafórica de suas diferentes vocações. Por meio da exposição de 19 trabalhos das décadas de 1970 e 80, de autores como Leon Ferrari, Nina Moraes e Alex Vallauri, foram realizadas ao longo dos últimos meses uma série de discussões entre o público, os artistas e especialistas do MAC e de outras instituições museológicas sobre como restaurar/preservar trabalhos contemporâneos, construídos com materiais extremamente frágeis ou perecíveis. Mais recentemente tem-se buscado essa reaproximação com os jovens artistas, que se substancia em atitudes como o ciclo MAC encontra os artistas, que abre espaço todas as semanas para depoimentos públicos de artistas da nova geração, no auditório da Cidade Universitária. Mais oportunidades também têm sido criadas para jovens estudantes e pesquisadores, na forma de estágios, exposições de trabalho ou assistência curatorial. Apesar de muitas vezes ser valorizado pelas riquezas modernistas que guarda, o MAC tem, ao longo de sua história, feito jus ao termo contemporâneo agregado a seu nome. Desde seus primórdios, a instituição foi concebida como um “laboratório de experimentações” por Walter Zanini, seu primeiro diretor. Aracy Amaral, que esteve à frente do museu no início dos anos 1980, considera que o compromisso do MAC é “o apoio às novas tendências da arte e ao mesmo tempo de uma busca de atualização de sua coleção” apesar de alertar contra a dificuldade de se atualizar esse acervo – sobretudo no campo internacional – em razão dos preços proibitivos praticados pelo mercado. n PESQUISA FAPESP 193 | 95


conto

Publique e pereça Igor Zolnerkevic

‘E

sconda-se!”, Prof. Titular Zé Salgado sussurrou para Prof. Visitante Padmanabham, acenando para seu cúmplice involuntário. A dupla se agachou atrás de uma velha e descartada escrivaninha de madeira, encostada em uma esquina onde dois corredores se encontravam, esperando que o pós-doc russo passasse sem os ver. Quinze minutos antes, transcorria uma madrugada como qualquer outra no departamento de física teórica da Universidade Federal de Barreirinhas. Em seu posto na portaria, o vigia noturno lia A cabana em paz, enquanto meia dúzia de estudantes e professores notívagos continuavam seu trabalho, ora rabiscando cálculos em folhas de papel, ora em frente a um computador, digitando equações em LaTeX ou linhas de código em Fortran, a maioria escutando música com fones de ouvido. Ocasionalmente, alguém se levantava para ir ao banheiro, imprimir um artigo, preparar um copo de café na copa ou sair do prédio para respirar ar fresco ou fumar um cigarro. Um homem de barba grisalha e óculos redondos, carregando uma pasta de couro, tocou a campainha do prédio. Seu Arnaldo, o vigia, não o reconheceu e pediu pelo interfone que se identificasse. “Está tudo bem, sou professor do departamento”, disse Salgado mostrando suas credenciais para o olho da câmera. “Você, um matutino convicto, a essa hora por aqui?”, exclamou Prof. Rosenberg, no corredor com uma xícara de café nas mãos. “Ah, só hoje, Rose, esqueci meu livro de integrais na sala e queria dar uma conferida, depois volto para casa.” “Ainda usando isso? Por que não procura na internet?” “É a força do hábito, rapaz... ou melhor, a inércia...” O colega encolheu os ombros e seguiu para sua sala, ao lado da de Salgado. Entrando em sua própria sala, Zé pousou a pasta sobre uma cadeira, tirando de dentro dela e colocando nos bolsos o seu equipamento para esta noite: um canivete suíço, uma lanterna e um 96 | fevereiro DE 2012

pequeno pedaço de arame. Esperou ali em pé por cinco minutos, olhando para o relógio de pulso. Depois, abriu a porta cuidadosamente, espreitando para o corredor. Vazio. Saiu na ponta dos pés, passando rapidamente pela porta semiaberta da sala de Rosenberg, que estava absorto a escrever um e-mail. As demais portas estavam fechadas. Ótimo. Caminho livre até o fim do corredor que continuava virando à esquerda. Estava tudo correndo mais fácil do que pensava. Salgado não era religioso, mas naquele momento pediu para qualquer deus ou entidade que pudesse escutar seus pensamentos e interceder no mundo material que impedisse nos próximos minutos que qualquer pessoa saísse de sua sala e o flagrasse no fim do corredor. Ao virar a esquina, estaria cruzando o limite da racionalidade. Até ali, tinha como justificar sua posição e velocidade, com base em condições iniciais e de contorno razoáveis. Passando de lá, se defrontaria com uma singularidade incontornável. Estaria em uma superposição de estados tal que, caso alguém o flagrasse, colapsaria em uma circunstância comprometedora que poderia levar, em última instância, a sua exoneração. Ninguém o vira, ninguém o via, e assim permanecia naquele estado que embora fosse de loucura tinha um propósito: invadir a sala de Leverkhun. *** Ninguém sabia como Fritz Leverkhun havia aparentemente surgido do vácuo, chegado ao Brasil e sido aprovado com distinção no concurso para titular da UFB. A atenção de todos estava mesmo em como em seguida, em menos de cinco anos, o físico alemão havia posto a UFB no mapa internacional da física. Vinte Physical Review Letters, duas capas da Nature e uma na Science. Duzentos preprints no ArXiv. Seções inteiras nos encontros da American Physical Society e da AAAS dedicados à teoria da supercondutividade de Anderson-Leverkhun, à equação da turbulência


ilustração gabriel bitar

de Komolgorov-Leverkhun, à dualidade de Maldacena-Leverkhun-Witten, ao modelo econômico de Stiglitz-Leverkhun e à insuperável junção nanofotônica L, que prometia baixar o preço dos painéis solares em 60% e aumentar sua eficiência em 150%. As palavras Nobel e Leverkhun pareciam combinar perfeitamente Há dois dias, porém, um ataque cardíaco levou o fenômeno de volta ao vácuo. Na manhã seguinte, sua família – sim, além de ter o índice h mais alto do planeta, o homem tinha mulher, três filhos legítimos, duas amantes e um bastardo, segundo fofocas – iria até o departamento para limpar sua sala e levar embora as pilhas de livros e papéis do falecido. “Quantas anotações de ideias inéditas, quantos rascunhos de papers seriam amanhã guardados para apodrecerem em algum armário de sótão?”, era a pergunta que não saía da cabeça de Salgado, desde que ouvira a notícia pela secretária do departamento. Teria de agir naquela noite. Aproveitando o horário de almoço dos funcionários, encontrou, no armário das chaves, a da sala de Leverkhun e tirou um molde dela. *** Quando finalmente virou a esquina, Salgado levou um susto ao descobrir que havia mais alguém no corredor, logo à sua frente, outra pessoa que não devia estar ali, que assim como ele devia ter passado o dia inteiro atormentado pela mesma ideia e que se virou igualmente assustado ao perceber que não estava sozinho. Era Sajid Padmanabham, outro matutino convicto, outro que publicava há anos essencialmente a mesma ideia de novo e de novo em revistas de baixo impacto, mudando parâmetros mínimos aqui e ali. Ambos reconheceram de imediato nos olhos um do outro o mesmo desejo. Cada um tirou do bolso a cópia da chave da sala que haviam feito. Em uma fração de segundo, firmaram um acordo sem palavras, estabelecendo que um jamais delataria o

outro e que a partir daquele momento teriam de trabalhar juntos e dividir o tesouro. Foi então que o pós-doc russo apareceu. Poucos conheciam seu nome, mas era uma figura folclórica no instituto, se recusando a acompanhar o fuso horário brasileiro e passando a madrugada a imprimir artigos que lia nos corredores, andando para lá e para cá. Ah, não, três é demais. Além disso, os dois tinham certeza, esse era um delator em potencial. Sabiam pela maneira como o homem levantava o braço no meio dos seminários do departamento e corrigia os palestrantes. Um homem que não tolerava lances fora das regras do jogo. E assim se esconderam dele, esperando que caminhasse até o fim do corredor, desse meia-volta e seguisse em outra direção. Quando acharam que estavam a uma distância segura correram até a porta da sala de Leverkhun, viraram a chave e entraram. E então, ao ligarem suas lanternas, os fachos de luz iluminaram o impossível. Impossível! A mesa no meio da sala não tinha uma folha de papel sequer. As estantes estavam vazias. Salgado avançou para as gavetas e Padmanabham para o armário, enfiaram seus arames e os mexeram como aquele vídeo no Youtube ensinava, abrindo os mesmos. Nada, nem um único clipe de papel. Teriam já feito a limpeza? Estaria já tudo no lixo? “O computador”, Sajid pensou, em meio ao pânico. Sim, talvez o homem tenha sido um daqueles devotos do paperless office, que fazia todos os seus cálculos em uma janela de computador do Mathematica. Estaria o desktop protegido por senha? Como fariam para decifrá-la? “Ligue, não temos mais nada a perder”, disse Zé. À medida que o sistema operacional iniciava, sentiram um cheiro de enxofre exalar do ventilador da máquina. Em uma tela preta, em letras vermelhas surgiu uma mensagem: “Mefistófeles ao seu dispor; em que posso ajudá-los?”. Igor Zolnerkevic é jornalista freelancer. Formado em física, escreve o blog Universo Físico (scienceblogs.com.br/universofisico). Fã de ficção científica e fantasia, esta é sua estreia na ficção.

PESQUISA FAPESP 192 | 97


Classificados revista fapesp.pdf 1 26-02-2012 17:56:16

C

M

th

World Congress of Food Science and Technology

Addressing Global Food Security and Wellness through Food Science and Technology

XVII Latin American Seminar of Food Science and Technology - ALACCTA

August 05-09, 2012

Y

CM

Foz do Iguaçu, Paraná - Brazil

MY

www.iufost.org.br

CY

CMY

Ciência em tempo real O conteúdo de Pesquisa FAPESP não termina aqui.

K

chair@iufost.org.br congress2012news@iufost.org.br

Na edição on-line você encontrará vídeos, galerias de fotos e mais notícias. Afinal, o conhecimento não espera o começo do mês para avançar.

Acompanhe também: @ PesquisaFapesp no twitter e a nossa página no facebook. Visite www.revistapesquisa.fapesp.br e se cadastre para receber o boletim.

98 | março DE 2012


­_ Anuncie você também: tel. (11) 3087-4212 | www.revistapesquisa.fapesp.br

Para quem lê e assina, a Pesquisa FAPESP traz, todo mês, as melhores e mais atualizadas notícias sobre pesquisa e diversas áreas do conhecimento.

Para quem anuncia, a Pesquisa FAPESP proporciona falar com um leitor qualificado, formador de opinião e que decide.

Para anunciar 11 3087-4212 | Para assinar 11 3038-1434 Ou acesse www.revistapesquisa.fapesp.br



Pesquisa Fapesp 193