Pesquisa aplicada x básica

Page 1

Pesquisa FAPESP agosto de 2016

agosto de 2016  www.revistapesquisa.fapesp.br

CPqD bate recorde de transmissão de dados por fibra óptica São Carlos é o polo mais denso em projetos de pequenas empresas de base tecnológica de SP Conhecimento gerado pelo Projeto Genoma Xylella diminuiu incidência do “amarelinho” nos laranjais Vírus chikungunya se alastra pelo país Tomografias por computador revelam o interior de fósseis Tecnologia na sala de aula ajuda alunos com dificuldades de aprendizagem

n.246

Viagens à Europa influenciaram a estética caipira do pintor Almeida Jr.

Pesquisa

aplicada básica Existe uma sem a outra? O desafio das estratégias nacionais de ciência e tecnologia é equilibrar a criação de conhecimento e o desenvolvimento de suas aplicações com impacto social e econômico


INDEPENDENTE, LINDA E INTELIGENTE

207

ano 18 novembro 2015 R$ 14,90

www.revistacult.com.br

LIVROS

HOSPÍCIO É DEUS, O SOFREDOR DO VER

MAURA LOPES CANÇADO QUEM QUANDO QUEIRA

JOÃO BANDEIRA

DOSSIÊ

COMO CONVERSAR COM UM FASCISTA

O PENSAMENTO BRASILEIRO NAS ARTES VISUAIS

MARCIA TIBURI

ENTREVISTAS

PAULO HERKENHOFF e SYLVIE LE BON DE BEAUVOIR

SIMONE DE

ESPECIAL

O FEMINISMO LIBERTÁRIO DAS

211

ano 19 abril 2016 R$14,90

BEAUVOIR

SOCIEDADE

FAMÍLIAS HOMOAFETIVAS

www.revistacult.com.br

DOSSIÊ

ESPECIAL

COMBATENTES CURDAS

210

ano 19 março 2016 R$14,90

www.revistacult.com.br

E A FILOSOFIA DA CONDIÇÃO FEMININA

A DIVERSIDADE QUE NÃO CABE NO ESTATUTO

LIVROS DJAIMILIA PEREIRA DE ALMEIDA,

LITERATURA

400 ANOS DA MORTE

207_Capa.indd 1

REVELAÇÃO DA LITERATURA LUSO-ANGOLANA

10/27/15 4:20 PM

FRIDA

ESPECIAL

DE SHAKESPEARE E CERVANTES

PERCEPÇÕES DO FEMININO E AÇÕES FEMINISTAS

DOSSIÊ

KAHLO

PSICANÁLISE

“A SUBSTÂNCIA DO CORPO É O GOZO”

ARTE E FEMINISMO ÀS PRÓPRIAS CUSTAS

210_CapaFrida Kahlo.indd 1

3/1/16 2:07 PM

PA R A A S S I N A R A S S I N E C U LT @ E D I T O R A B R E G A N T I N I . C O M . B R

11 3 3 8 5 3 3 8 5 • 11 9 5 3 9 4 5 0 4 9

W W W . R E V I S TA C U LT . C O M . B R

W H AT S A P P


fotolab

Beleza discreta Nas profundezas da Lapa do Baixão, uma caverna até recentemente inexplorada no município de Iuiú, sudoeste da Bahia, minúsculos insetos existem longe do olhar alheio. Literalmente, muitos habitantes da escuridão total nem sequer se dão ao trabalho de ter olhos, inúteis por ali. É o caso desta cigarrinha descolorida descoberta em 2013 pelo grupo do Laboratório de Ecologia Subterrânea da Universidade Federal de Lavras (Ufla), bem diferente de seus parentes não cavernícolas, que costumam ter cores e formas extravagantes, com projeções na cabeça e feixes de filamentos na parte traseira do corpo. Batizada com um gênero novo em homenagem à localidade e à falta de visão, Iuiuia caeca foi descrita em junho na revista Deutsche Entomologische Zeitschrift.

Imagem enviada por Rodrigo Lopes Ferreira, professor do Departamento de Biologia da Ufla​

Se você tiver uma imagem relacionada à sua pesquisa, envie para imagempesquisa@fapesp.br, com resolução de 300 dpi (15 cm de largura) ou com no mínimo 5 MB. Seu trabalho poderá ser selecionado pela revista.

PESQUISA FAPESP 246 | 3


agosto  246

TECNOLOGIA 66 Nanotecnologia Tecidos antimicrobianos podem proporcionar mais segurança para profissionais da saúde 72 Pesquisa empresarial A Basf mantém no país estrutura de pesquisa voltada principalmente para o agronegócio e a construção civil

16 CAPA 16 Em tempos de crise, ressurge a cobrança pelo retorno do financiamento público de pesquisa sem levar em conta que a produção da ciência segue caminhos complexos e interligados ENTREVISTA 24 Luiz Tatit Com vasta carreira na música popular, linguista dá prioridade à investigação acadêmica da gênese da melodia a partir da fala

POLÍTICA CIENTÍFICA E TECNOLÓGICA 30 Empreendedorismo Estudo analisa distribuição de projetos de pequenas empresas de base tecnológica paulistas 34 Propriedade intelectual Patentes resultantes de projetos de pesquisa financiados pela FAPESP são reunidas na Biblioteca Virtual da FAPESP 36 Comunidade científica Invasão policial na Universidade de Buenos Aires em 1966 foi precursora da fuga de cérebros na Argentina

CIÊNCIA 40 Genética Comparação do genoma de primatas reforça a influência das retrocópias na diversificação de espécies e de indivíduos

54 44 Saúde Altamente debilitante, infecção provocada pelo vírus chikungunya se espalha pelo país 48 Evolução Variedade de Plasmodium vivax encontrada nas Américas acumulou alterações genéticas que a diferenciam das cepas da África e da Ásia 50 Citricultura Conhecimento gerado pelo sequenciamento da Xylella fastidiosa diminuiu incidência da bactéria em laranjeiras de São Paulo 52 Matemática Sistema ajuda a identificar talentos para o esporte 54 Geografia física Mapa expõe uma visão abrangente do relevo da América do Sul 58 Paleontologia Tomografia por computador se torna mais disseminada e permite análises detalhadas de fósseis 62 Física Simulações sugerem que é possível criar novos materiais nanoestruturados capazes de armazenar informação

76 Cardiologia Em teste inicial, nova terapia restabeleceu o fluxo sanguíneo no músculo cardíaco em 60% dos casos 78 Engenharia de materiais Dois projetos criam alternativas para o reaproveitamento de pneus

HUMANIDADES 80 Educação Estudo confirma benefícios do uso de recursos tecnológicos em sala de aula 84 Urbanismo Pesquisas procuram definir padrões para proteger os moradores das grandes cidades do efeito do calor 88 Obituário Crítico Sábato Magaldi era tido como um dos três principais nomes em sua área no Brasil 89 Sérgio Henrique Ferreira se destacou na pesquisa de medicamentos contra hipertensão e dor e foi presidente da SBPC seçÕes 3 Fotolab 5 Cartas 6 On-line 7 Carta da editora 8 Dados e projetos 9 Boas práticas 10 Estratégias 12 Tecnociência 90 Memória 92 Arte 95 Resenhas 97 Carreiras 99 Classificados

56


cartas

cartas@fapesp.br

e querem fazer combustível a partir de alimentos? Espero ansiosamente pelo dia em que veículos movidos por fontes de energia renováveis e não poluentes comecem a dominar o mercado.

contatos Internet revistapesquisa.fapesp.br

Marcus Andrade

redacao@fapesp.br PesquisaFapesp

Exercícios e saúde

PesquisaFapesp

Sobre a reportagem on-line “Exercício no lazer contribui para a saúde”, é uma tremenda inovação quando um professor de uma faculdade de medicina “descobre” que exercício físico feito durante o tempo de lazer beneficia a saúde da população.

Pesquisa Fapesp

Pesquisa Fapesp Opiniões ou sugestões Por e-mail: cartas@fapesp.br

Pelo correio: Rua Joaquim Antunes, 727 – 10º andar CEP 05415-012, São Paulo, SP Assinaturas, renovação e mudança de endereço Envie um e-mail para assinaturaspesquisa@fapesp.br ou ligue para (11) 3087-4237, de segunda a sexta, das 9h às 19h Para anunciar  Contate Júlio César Ferreira na Mídia Office Por e-mail: julinho@midiaoffice.com.br Por telefone: (11) 99222-4497 Classificados  Por e-mail: publicidade@fapesp.br Por telefone: (11) 3087-4212 Edições anteriores Preço atual de capa acrescido do custo de postagem. Peça pelo e-mail: clair@fapesp.br

Léo Ramos

pesquisa_fapesp

Anibal Faúndes

Sobre a entrevista de Anibal Faúndes (edição 245), o aborto não deixa de acontecer por ser ilegal ou pelos seus riscos. É muito melhor haver acompanhamento médico legal para essas mulheres que decidem sofrer os riscos do que mantê-las afastadas do sistema de saúde quando mais precisam.   Gabriela Ramos

Acredito que a entrevista com Anibal Faúndes é importante para que se construa uma mentalidade de modo que, no contexto do Estado, se legisle e cons­ truam os projetos a partir de informações e não com uma suposta moral de esquina.   Ramon Vilarino

Pode ser polêmico, mas não pode ser tabu. Refletir é preciso!   Fabiano Cardoso

Quero parabenizar o jornalista Ricardo Zorzetto pela sensibilidade e beleza da entrevista. Ao longo dos 30 anos em que trabalho com o professor Anibal Faúndes, ele tem dado várias entrevistas falando de sua experiência, mas essa foi a única a captar a essência do trabalho dele.

Licenciamento

Vilma Zotareli

de conteúdo

Centro de Pesquisas em Saúde Reprodutiva de

Adquira os direitos de

Campinas (Cemicamp)

reprodução de textos e imagens

Por telefone: (11) 3087-4212

Vídeo

Excelente ideia a de legendar o vídeo “Pa­­­­­ra ampliar a autonomia”. Legendas são como janelas que se abrem à acessibilidade.   Paulo Ribeiro

Correções

As fotos da reportagem “Eficiência sobre trilhos” (edição 245), das páginas 82 a 84, saíram trocadas. A identificação correta é: página 82, “Acima, a estação de Rio Claro, uma das mais importantes da linha que liga Jundiaí ao noroeste paulista”; página 83, “Pátio da estação da Companhia Paulista em Campinas na década de 1940”; página 84: “Trem de carga, típico da década de 1930”. A foto da reportagem “Óleo para o biodiesel” (edição 245) que mostra os frutos da macaúba, na página 70, é de Sergio Motoike, da Universidade Federal de Visçosa (UFV). A foto do nanossatélite que ilustra a nota “Dois anos em funcionamento” (seção Tecnociência, edição 245) é a do Nanossatélite AESP-14 e não do NanosatC-Br1, ao qual o texto se refere.

Campinas, SP

de Pesquisa FAPESP. Por e-mail: mpiliadis@fapesp.br

Mara Lúcia Cristan

Biodiesel

Sobre a reportagem “Óleo para o biodiesel” (edição 245), mal temos o que comer

Cartas para esta revista devem ser enviadas para o e-mail cartas@fapesp.br ou para a rua Joaquim Antunes, 727, 10º andar – CEP 05415-012, Pinheiros, São Paulo-SP. As cartas poderão ser resumidas por motivo de espaço e clareza. Via facebook.com/PesquisaFapesp

PESQUISA FAPESP 246 | 5


w w w . r e v i s ta p e s q u i s a . f a p e s p. b r

No site de Pesquisa Fapesp estão disponíveis gratuitamente todos os textos da revista em português, inglês e espanhol, além de conteúdo exclusivo

A mais vista do mês no Facebook

foto léo ramos

on-line

Galeria de imagens

capa

Pele de laboratório

1.144 curtidas 38 comentários 453 compartilhamentos

Exclusivo no site

Rádio

escavações em uma área no Parque

O astrofísico Augusto Damineli fala sobre buraco encontrado na estrela binária Eta Carinae e apagões que ocorrem em um dos astros da Via Láctea

Nacional da Serra da Capivara, no Piauí,

bit.ly/2a54EqH

x Novos indícios indicam que, por volta de 700 anos atrás, macacos-prego no Nordeste brasileiro já usavam ferramentas para quebrar castanhas de caju e extrair a parte comestível, de acordo com um artigo publicado na revista Current Biology. Um grupo de pesquisadores fez

Confira no registro de Eduardo Cesar as atividades complementares ao congresso de observadores de aves realizado em maio no Butantan bit.ly/2arAW0D

e encontrou ferramentas muito semelhantes às usadas hoje em camadas correspondentes a períodos que chegam ao século XIII. “É o primeiro relato de

Vídeo do mês

youtube.com/user/PesquisaFAPESP

ferramentas de macacos-prego no registro arqueológico”, conta o biólogo Tiago Falótico, do Instituto de Psicologia da Universidade de São Paulo (IP-USP) e um dos autores do estudo bit.ly/2a0oAKJ

x Um grupo de físicos brasileiros observou pela primeira vez em detalhe como os átomos vibram nas bordas de um material de dimensões nanométricas feito a partir do elemento químico fósforo. Em um

Assista ao vídeo:

estudo na Nature Communications, eles descrevem uma anomalia no padrão de vibrações que jamais havia sido observada em blocos tão diminutos de fósforo negro nem em outros materiais com dimensões nanométricas, como o grafeno, formado por uma só camada de átomos de carbono e uma das grandes promessas da nanotecnologia bit.ly/29WjSmr 6 | Agosto DE 2016

Pesquisadores demonstram como os exoesqueletos ajudam na reabilitação e melhoram a qualidade de vida de pessoas com deficiência bit.ly/2aIkyYR


carta da editora

fundação de amparo à pesquisa do estado de são Paulo

José Goldemberg Presidente Eduardo Moacyr Krieger vice-Presidente Conselho Superior Carmino Antonio de Souza, Eduardo Moacyr Krieger, fernando ferreira costa, João Fernando Gomes de Oliveira, joão grandino rodas, José Goldemberg, Maria José Soares Mendes Giannini, Marilza Vieira Cunha Rudge, José de Souza Martins, Pedro Luiz Barreiros Passos, Pedro Wongtschowski, Suely Vilela Sampaio Conselho Técnico-Administrativo Carlos Henrique de Brito Cruz Diretor Científico Joaquim J. de Camargo Engler Diretor Administrativo

issn 1519-8774

Conselho editorial Carlos Henrique de Brito Cruz (Presidente), Caio Túlio Costa, Eugênio Bucci, Fernando Reinach, José Eduardo Krieger, Luiz Davidovich, Marcelo Knobel, Maria Hermínia Tavares de Almeida, Marisa Lajolo, Maurício Tuffani, Mônica Teixeira comitê científico Luiz Henrique Lopes dos Santos (Presidente), Anamaria Aranha Camargo, Ana Maria Fonseca Almeida, Carlos Eduardo Negrão, Fabio Kon, Francisco Antônio Bezerra Coutinho, Joaquim J. de Camargo Engler, José Goldemberg, José Roberto de França Arruda, José Roberto Postali Parra, Lucio Angnes, Marie-Anne Van Sluys, Maria Julia Manso Alves, Paula Montero, Roberto Marcondes Cesar Júnior, Sérgio Robles Reis Queiroz, Wagner Caradori do Amaral, Walter Colli Coordenador científico Luiz Henrique Lopes dos Santos diretora de redação Alexandra Ozorio de Almeida editor-chefe Neldson Marcolin Editores Fabrício Marques (Política), Márcio Ferrari (Humanidades), Marcos de Oliveira (Tecnologia), Ricardo Zorzetto (Ciência); Carlos Fioravanti e Marcos Pivetta (Editores espe­ciais); Bruno de Pierro (Editor-assistente) revisão Alexandre Oliveira e Margô Negro arte Mayumi Okuyama (Editora), Ana Paula Campos (Editora de infografia), Alvaro Felippe Jr., Júlia Cherem Rodrigues e Maria Cecilia Felli (Assistentes) fotógrafos Eduardo Cesar, Léo Ramos Mídias eletrônicas Fabrício Marques (Coordenador) Internet Pesquisa FAPESP online Maria Guimarães (Editora) Rodrigo de Oliveira Andrade (Repórter) Jayne Oliveira (Redatora) Renata Oliveira do Prado (Mídias sociais) Rádio Pesquisa Brasil Biancamaria Binazzi (Produtora) Colaboradores André Botelho, Christina Queiroz, Daniel Almeida, Daniel Bueno, Diego Viana, Evanildo da Silveira, Everton Lopes, Fabio Otubo, Franklin Leopoldo e Silva, Igor Zolnerkevic, Mauro de Barros, Pedro Hamdan, Valter Rodrigues, Yuri Vasconcelos

É proibida a reprodução total ou parcial de textos e fotos sem prévia autorização Para falar com a redação (11) 3087-4210 cartas@fapesp.br Para anunciar Midia Office - Júlio César Ferreira (11) 99222-4497 julinho@midiaoffice.com.br Classificados: (11) 3087-4212 publicidade@fapesp.br Para assinar (11) 3087-4237 assinaturaspesquisa@fapesp.br Tiragem 30.000 exemplares IMPRESSão Plural Indústria Gráfica distribuição Dinap GESTÃO ADMINISTRATIVA INSTITUTO UNIEMP PESQUISA FAPESP Rua Joaquim Antunes, no 727, 10o andar, CEP 05415-012, Pinheiros, São Paulo-SP FAPESP Rua Pio XI, no 1.500, CEP 05468-901, Alto da Lapa, São Paulo-SP Secretaria de Desenvolvimento Econômico, Ciência e Tecnologia Governo do Estado de São Paulo

Debate sem fim Alexandra Ozorio de Almeida |

E

diretora de redação

m 1945 foi divulgado nos Estados Unidos o documento “Ciência: a fronteira sem fim”, possivelmente a publicação oficial mais importante para definir o papel do país como líder mundial em ciência, tecnologia e inovação. Preparado por Vannevar Bush, que chefiara o órgão coordenador dos esforços de pesquisa e desenvolvimento norte-americanos durante a guerra, um de seus desdobramentos foi a criação da National Science Foundation, agência pública de financiamento à pesquisa, que inspirou a fundação de diversos congêneres, inclusive a FAPESP. Bem recebido, o relatório Bush também foi objeto de críticas: por um lado, foi visto como pouco propositivo em termos de envolvimento governamental na pesquisa; por outro, argumentou-se que o setor empresarial poderia assumir as atividades propostas, mediante redução de impostos. O diretor do Escritório de Orçamento do governo brincou com o título do documento, sugerindo que fosse alterado para “Ciência: a despesa sem fim”. O caso, narrado na apresentação do diretor científico da FAPESP, Carlos Henrique de Brito Cruz, à reprodução do relatório Bush na Revista Brasileira de Inovação (bit.ly/RelatorioBush), mostra que a crítica ao financiamento público de pesquisa não é recente, tampouco exclusividade brasileira. É comum que em épocas de escassez orçamentária dispêndios governamentais sejam objeto de escrutínio mais severo – atenção desejável também na bonança. O problema está em análises superficiais de questões complexas. Uma política que privilegie o retorno imediato do investimento em ciência tende a sacrificar a chamada pesquisa básica, que é realizada sem considerações quanto à finalidade prática, na definição de Bush. Ao ampliar o entendimento da natureza e de suas leis, pode resultar em conhecimento aplicado e em soluções inovadoras, mas não tem esse objetivo de partida. A reportagem de capa (página 16) discute o mal-entendido tão comum da oposição entre pesquisa básica e aplicada e se desdobra na análise do papel

do Estado no financiamento do sistema de C&T, apresentando dados pouco conhecidos. É comum ouvir que os Estados Unidos são o modelo de participação empresarial no financiamento à pesquisa realizada em universidades; entretanto, nos últimos anos, essa porcentagem variou de 5% a 7% do total investido. O argumento de que nos EUA são as empresas as responsáveis pelos investimentos geradores de inovações e prosperidade econômica é confrontado, entre outros, pelos estudos da economista ítalo-americana Mariana Mazzucato, que mostra que o setor privado só se interessou por áreas como a internet e a biotecnologia depois de o sistema público de pesquisa arcar com investimentos vultosos nas fases de maior risco. Recursos públicos financiaram a maioria das grandes descobertas científicas e muitos desenvolvimentos tecnológicos que estão na base dos avanços nas comunicações e na saúde, apenas em alguns casos com objetivos de aplicação imediata. Investir com objetivos imediatistas traz retornos mais minguados – em conhecimento e em inovação. O desafio é como distribuir os recursos para atender as expectativas da sociedade a curto prazo e, ao mesmo tempo, respeitar o tempo de cada tipo de pesquisa científica, de forma que seus resultados beneficiem também gerações futuras. Nem só das engrenagens da ciência trata esta edição. Ilustrando os benefícios da pesquisa básica para a economia, reportagem na página 50 mostra o impacto do projeto de sequenciamento da bactéria Xylella fastidiosa, causadora do “amarelinho”, na produtividade dos laranjais. Já a reportagem sobre chikungunya (página 44) é quase um chamado à pesquisa, ao mostrar quão pouco se sabe sobre essa doença debilitante cuja incidência cresce de forma inquietante. O novo recorde de distância e taxa de transmissão de dados por fibra óptica é descrito em reportagem na página 70, enquanto a página 80 mostra o benefício do uso de recursos tecnológicos em sala de aula, principalmente para alunos com dificuldades de aprendizagem. PESQUISA FAPESP 246 | 7


Dados e projetos Temáticos e Jovens Pesquisadores recentes Projetos contratados pela FAPESP em junho e julho de 2016 temáticos  Desafios para o século XXI em física e astrofísica de neutrinos Pesquisador responsável: Orlando Luis Goulart Peres Instituição: IFGW/Unicamp Processo: 2014/19164-6 Vigência: 01/07/2016 a 30/06/2021

 Organizando a matéria: coloides formados por associação de surfactantes, polímeros e nanopartículas Pesquisador responsável: Watson Loh Instituição: IQ/Unicamp Processo: 2015/25406-5 Vigência: 01/07/2016 a 30/06/2021

 Aplicação do conceito de biorrefinaria a estações de tratamento biológico de águas residuárias: o controle da poluição ambiental aliado à recuperação de matéria e energia Pesquisador responsável: Marcelo Zaiat Instituição: EESC/USP Processo: 2015/06246-7 Vigência: 01/07/2016 a 30/06/2021

 Enhancing salt tolerance in tomato crops for advancing sustainable agriculture and food production. (FAPESP-BMBF) Pesquisador responsável: Lazaro Eustaquio Pereira Peres Instituição: Esalq/USP Processo: 2015/50220-2 Vigência: 01/06/2016 a 31/05/2019

 Proteína tirosina fosfatase de baixo peso molecular em câncer de cólon retal: da bancada à geração de produto Pesquisadora responsável: Carmen Verissima Ferreira Halder Instituição: IB/Unicamp Processo: 2015/20412-7 Vigência: 01/07/2016 a 30/06/2020

 Sustainable gas pathways for Brazil; from microcosm. (FAPESP-RCUK-Nerc) Pesquisador responsável: Reinaldo Giudici Instituição: Poli/USP Processo: 2015/50684-9 Vigência: 01/06/2016 a 31/05/2019

 MSCs e M2 como determinantes da natureza construtiva ou destrutiva de microambientes inflamatórios associados ao tecido ósseo Pesquisador responsável: Gustavo Pompermaier Garlet Instituição: FO de Bauru/USP Processo: 2015/24637-3 Vigência: 01/06/2016 a 31/05/2021

 Paleovínculos na evolução das monções e dinâmica. (FAPESP-Belmont Forum 2015) Pesquisador responsável: Pedro Leite da Silva Dias Instituição: IAG/USP Processo: 2015/50686-1 Vigência: 01/06/2016 a 31/05/2019  Serviços climáticos através de coprodução de conhecimento: uma

iniciativa europeia e da América do Sul para fortalecer as ações de adaptação da sociedade a eventos extremos. (FAPESP-Belmont Forum 2015) Pesquisadora responsável: Iracema Fonseca de Albuquerque Cavalcanti Instituição: Inpe/MCTIC Processo: 2015/50687-8 Vigência: 01/07/2016 a 30/06/2020 SPEC  Nordeste: uma nova ciência para um importante, porém negligenciado bioma. (FAPESP-Nerc-Biome) Pesquisador responsável: Jonathan James Lloyd Instituição: FFCLRP/USP Processo: 2015/50488-5 Vigência: 01/04/2016 a 31/03/2019 JOVENS PESQUISADORES  Fabricação e caracterização de dispositivos e sistemas baseados em nanomembranas híbridas Pesquisador responsável: Carlos Cesar Bof Bufon Instituição: CNPEM/MCTI Processo: 2014/25979-2 Vigência: 01/07/2016 a 30/06/2020

 Identificação de novas moléculas com efeito quimioterápico em glioma humano e caracterização do seu mecanismo de ação Pesquisadora responsável: Catarina Raposo Dias Carneiro Instituição: FO de Araraquara/Unesp

Processo: 2015/04194-0 Vigência: 01/07/2016 a 30/06/2020

 Biogeografia, biodiversidade e conservação de répteis Squamata cisandinos Pesquisador responsável: Cristiano de Campos Nogueira Instituição: IB/USP Processo: 2015/20215-7 Vigência: 01/07/2016 a 30/06/2020  Diversidade funcional dos biomas Amazônia, Mata Atlântica e Cerrado nos ambientes intactos e em regeneração por meio de imagens hiperespectrais. (FAPESP-Nerc-Biome) Pesquisador responsável: Fabien Hubert Wagner Instituição: Inpe/MCTIC Processo: 2015/50484-0 Vigência: 01/10/2016 a 30/09/2020  Programa de argônio líquido na Unicamp Pesquisador responsável: Ettore Segreto Instituição: IFGW/Unicamp Processo: 2016/01106-5 Vigência: 01/07/2016 a 30/06/2020  Desenvolvimento de novos sistemas catalíticos para a biorrefinaria Pesquisador responsável: Jean Marcel Ribeiro Gallo Instituição: CCET/UFSCar Processo: 2016/02128-2 Vigência: 01/08/2016 a 31/07/2020

Doutorados per capita no mundo Títulos de doutorado concedidos no Brasil e estados brasileiros, Estados Unidos e estados norte-americanos e países escolhidos em 2013, por 100 mil habitantes Massachusetts/EUA Reino Unido Alemanha Coreia do Sul Nova York/EUA Espanha França Estados Unidos Califórnia/EUA Texas/EUA Itália São Paulo Japão Rio de Janeiro Rio Grande do Sul Turquia Brasil Minas Gerais Paraná México Chile

46,0 41,0 34,4 25,1 24,8 22,5 21,0 20,6 20,1 17,8 17,5 13,2 12,9 12,7 12,7 10,8 7,6 7,6 7,3 4,2 3,4 0 5 10 15 20 25 30 35 40 45 50

8 | agosto DE 2016

n  Brasil e estados n  EUA e estados n  Outros países

Fontes: Títulos de doutorado do Brasil e de estados brasileiros: Geocapes e Demografia da Pós-graduação 2015, CGEE 2015; população dos estados brasileiros: Projeções Populacionais 2013, IBGE; estados norte-americanos: Carnegie Classifications of Universities e US Census Bureau; países escolhidos: CGEE 2016


Boas práticas

ilustração  daniel bueno

Programa de reabilitação de cientistas James DuBois, psicólogo e professor da Escola de Medicina da Universidade de Washington, tem uma experiência singular na promoção da integridade científica: nos últimos três anos, ofereceu um programa de reabilitação para 39 pesquisadores de 24 diferentes instituições norte-americanas que haviam sido punidos em episódios de má conduta. O treinamento foi criado com recursos dos Institutos Nacionais de Saúde dos Estados Unidos, principal agência de pesquisa da área médica do país, e recebe várias vezes por ano pequenos grupos de pesquisadores que tiveram financiamento suspenso por cometerem fraude, plágio ou falsificarem dados em trabalhos científicos. Em artigo publicado na revista Nature, DuBois relatou a experiência do programa e apontou o que considera “mitos” sobre má conduta científica. O primeiro deles é a ideia de que só as “maçãs podres” se envolvem em encrencas. O público do curso, observa DuBois, é composto por pesquisadores talentosos, cujas instituições julgaram que valia a pena investir em sua reabilitação. “Nós não queremos minimizar a gravidade das violações cometidas por nossos participantes, mas elas raramente resultaram de uma intenção consciente de enganar ou quebrar regras”, escreveu DuBois. Ele cita o exemplo de um jovem pesquisador, alçado à liderança de um laboratório, que deixou de revisar dados de um estagiário de pós-doutorado por imaginar que seria um sinal de falta de confiança. O segundo mito é a ideia de que basta ter talento científico para ser bem-sucedido. Outras habilidades, como liderar equipes, comunicar-se com os pares, ser minucioso e criativo, são igualmente necessárias

para prevenir erros e deslizes. Por fim, DuBois contesta a tese de que o pesquisador deve tentar produzir o máximo possível, não deixando escapar nenhuma oportunidade de apresentar projetos e disputar recursos. Ocorre que o excesso de trabalho é uma causa de equívocos e desleixo com regras. “Líderes de pesquisa devem assumir apenas o número de projetos que consigam supervisionar de forma responsável”, afirmou. De acordo com DuBois, o programa recebeu críticas por gastar dinheiro tentando recuperar pesquisadores flagrados em má conduta. “Os recursos são bem gastos, pois práticas questionáveis de pesquisa estão muito mais disseminadas do que gostaríamos de admitir”, afirma. Nos três dias de treinamento, os pesquisadores se submetem a uma bateria de avaliações, discutem o que fizeram de errado e traçam um plano de desenvolvimento da carreira, que

inclui estratégias como realizar reuniões regulares com a equipe, buscar treinamento complementar e reestruturar fluxos de trabalho. Nos três meses seguintes, fazem reuniões por telefone com a equipe de DuBois, nas quais mostram como estão levando as estratégias à prática.

Pesquisa nacional sobre má conduta A Holanda vai perguntar a cada um de seus pesquisadores se já se envolveram em casos de má conduta ou cometeram outros deslizes, num esforço para melhorar o padrão das práticas científicas no país. Serão investidos € 5 milhões, o equivalente a R$ 18,2 milhões, para mapear a extensão do problema e procurar soluções. As respostas dos pesquisadores serão protegidas por anonimato, mas os resultados consolidados das universidades e centros de pesquisa serão informados à direção de cada instituição. “Durante os últimos 10 anos tivemos três ou quatro sérios sinais de alerta”, contou Lex Bouter, professor da Universidade Livre de

Amsterdã, um dos responsáveis pela iniciativa, de acordo com o site da Times Higher Education. Um dos casos foi o de Diederick Stapel, demitido da Universidade Tilburg por fabricar dados em diversos artigos sobre psicologia social. O esforço holandês também irá investir € 3 milhões, ou R$ 10,9 milhões, em estudos para reproduzir resultados de pesquisas, sobretudo nas áreas de ciências sociais e psicologia, que têm potencial para inspirar a formulação de políticas públicas. Boa parte dos escândalos recentes na Holanda envolveu pesquisas nesses campos do conhecimento, que não puderam ser confirmadas em estudos posteriores. PESQUISA FAPESP 246 | 9


Estratégias Vencedores do Prêmio Bunge

1

A Fundação Bunge anunciou a lista de ganhadores da edição 2016 do seu prêmio. Numa das áreas agraciadas, a de ciências exatas e tecnológicas, José Vicente Caixeta Filho, pesquisador e ex-diretor da Escola Superior de Agricultura Luiz de Queiroz da Vista aérea do Fast: entre montanhas e florestas, um refletor de 500 metros

Universidade de São Paulo (Esalq-USP), foi reconhecido na categoria Vida e Obra, por seu trabalho na área de logística

O supertelescópio chinês

agroindustrial. Na categoria Juventude, que

Depois de quase seis

o radiotelescópio de

montanhas que

premia pesquisadores

anos de construção, um

Arecibo, em Porto Rico,

funcionam como barreira

de até 35 anos, o prêmio

radiotelescópio chinês

com 305 m de diâmetro.

natural às interferências

ficou com Hugo Miguel

com um espelho refletor

O maior do mundo ainda

de frequência de rádio.

Varela Repolho,

de 500 metros (m) de

é o Ratan-600, com

O refletor, a peça

professor de logística e

diâmetro (Fast, de

um espelho de 576 m,

principal, começou a ser

transportes da Pontifícia

Five-hundred-meter

em operação desde 1974

construído em agosto

Universidade Católica do

Aperture Spherical

na Rússia. Quando

de 2015. Em 11 meses,

Rio de Janeiro (PUC-Rio).

radioTelescope) deve

estiver concluído,

4.273 peças triangulares

começar a operar em três

dará grande

foram instaladas sobre

meses. No início de julho

competitividade à

uma estrutura de cabos

foi anunciada a etapa

pesquisa em astrofísica

de aço, formando uma

final, a instalação dos

da China por pelo

superfície parabólica.

últimos 4.450 painéis

menos 10 anos,

foi o contemplado na

refletores. Construído a

comentou Yan Jan,

categoria Vida e Obra.

um custo total estimado

diretor-geral do projeto

Seu trabalho é dedicado

em US$ 180 milhões

do telescópio. Ligado

à nutrição animal, com

em uma área equivalente

aos Observatórios

ênfase na avaliação

a 30 campos de futebol,

Astronômicos Nacionais

de alimentos para

o telescópio deverá

da China (Naoc), o Fast

ruminantes. E na

detectar hidrogênio

foi proposto em 1994.

categoria Juventude,

neutro da Via Láctea,

Após uma década de

Felipe do Nascimento

pulsares e eventuais

buscas, os cientistas

Vieira, da Universidade

sinais de outras

encontraram o lugar

Federal de Santa

civilizações, segundo

mais adequado em

Catarina (UFSC), ganhou

Nan Rendong, cientista

Dawodang, na província

o prêmio por suas

chefe do projeto. ​​O Fast

de Guizhou, região do

supera em tamanho

sudoeste da China com

10 | agosto DE 2016

Já na área de ciências José Vicente Caixeta, da Esalq-USP: logística agroindustrial

agrárias, Sebastião de Campos Valadares Filho, da Universidade Federal de Viçosa (UFV),

pesquisas com cultivo 2

de camarões.


3

Diretor-presidente da

As mulheres e a ciência

FAPESP é nomeado

Foi lançado em julho um portal de divulgação

O engenheiro e economista Carlos Amé-

científica dedicado à

rico Pacheco, 59 anos, é o novo diretor-

participação das

-presidente do Conselho Técnico-Admi-

mulheres em diversas

nistrativo da FAPESP. A escolha foi feita

áreas da pesquisa. O

pelo governador Geraldo Alckmin, a

Ciência & Mulher (www.

partir de lista tríplice definida pelo Con-

cienciaemulher.org.br)

selho Superior da Fundação. A posse

é uma iniciativa da

está prevista para 22 de agosto. Pache-

Sociedade Brasileira para

co irá substituir José Arana Varela, pro-

o Progresso da Ciência

fessor do Instituto de Química da Uni-

(SBPC) que busca dar

versidade Estadual Paulista (Unesp),

visibilidade a pesquisas,

morto em maio. “Espero contribuir com

ciência econômica pela Universidade

artigos e livros

minha experiência para o sucesso da

Estadual de Campinas (Unicamp), tendo

produzidos por mulheres

FAPESP”, disse Pacheco. “A instituição

realizado um estágio de pós-doutorado

é reconhecida como uma agência de

na Universidade Colúmbia, Estados Uni-

excelência no Brasil e em outros países.

dos. Com experiência em economia ur-

A expectativa é que possamos trabalhar

bano-regional e economia industrial e

com ações que aprimorem o desenvol-

tecnológica, foi secretário executivo do

vimento científico e tecnológico do es-

Ministério da Ciência e Tecnologia entre

tado de São Paulo.” Graduado em enge-

1999 e 2002 e reitor do ITA entre 2011

nharia eletrônica pelo Instituto

e 2015, ano em que assumiu a diretoria

de mulheres e o

Tecnológico de Aeronáutica (ITA) em

do Centro Nacional de Pesquisa em Ener-

pensamento em torno

1979, Pacheco é mestre e doutor em

gia e Materiais (CNPEM), em Campinas.

das questões de gênero

ou que tratem de assuntos como saúde

Carlos Américo Pacheco é professor afastado do Instituto de Economia da Unicamp

feminina, violência doméstica e aborto. De acordo com a instituição, o objetivo é estimular a produção científica

no país. Uma das seções do novo portal apresenta perfis de pesquisadoras

Mais brasileiros na Alemanha

que se destacaram em

fotos 1 NAOC 2 Francisco Emolo / Jornal da USP  3 léo Ramos  4  Jorge Royan / Wikicommons

suas áreas, como a O número de estudantes

germânicas em 2015,

astrônoma brasileira

brasileiros em instituições

um crescimento de 7%,

Duilia de Mello,

de ensino superior

ou aproximadamente

pesquisadora do

alemãs cresceu 36%

20 mil estudantes, em

Goddard Space Flight

nos últimos dois anos.

relação ao ano anterior.

Center, laboratório da

No entanto, os brasileiros

Como resultado, o total

agência espacial

– em número absoluto,

de estrangeiros passou

norte-americana (Nasa).

2.910 – representam

de 11,5% para 11,9%

“Além de conteúdo

apenas 3% do total de

do total de universitários

próprio, também

estudantes matriculados

na Alemanha. Já o

veiculamos reportagens

principalmente em

contingente de estudantes

publicadas por

cursos de pós-graduação

chineses passou de

agências de notícias de

na Alemanha, de acordo

30 mil pela primeira vez

instituições de pesquisa

com um relatório do

em 2015, de acordo com

e universidades”, diz a

Serviço Alemão de

esse estudo. A China

jornalista Fabiola de

Intercâmbio Acadêmico

é o país de origem da

Oliveira, coordenadora

(Daad) e do Centro

maioria dos estudantes

Alemão de Pesquisas

estrangeiros na

sobre Ensino Superior

Alemanha, com 10,5% do

e Ciência (DZHW).

total, seguida pela Índia

no mestrado (48%),

Segundo esse

(5,2%), França (4,9%),

seguido pela graduação

levantamento, 321.569

Estados Unidos (4,7%)

(36%). O curso mais

estrangeiros estavam

e Itália (4,6%). Quase

frequentado é o de

matriculados em

metade dos estrangeiros

engenharia, e Berlim, a

universidades

está matriculada

cidade mais procurada.

do portal. A expectativa, 4

Universidade Humboldt, em Berlim: a capital é a cidade mais procurada por alunos estrangeiros

segundo ela, é que, paralelamente ao portal, realizem-se atividades como workshops e seminários para promover debates sobre a participação feminina na ciência brasileira. PESQUISA FAPESP 246 | 11


Tecnociência Descritos dois novos minerais brasileiros A lista de minerais-tipo (descritos pela

detalhada. A parisita-(La) é um flúor-

fluoreto hidratado de alumínio. Foi

primeira vez) do Brasil cresceu para 68

-carbonato de lantânio e cálcio, asso-

encontrada na mina de Pitinga, em Pre-

espécies únicas em junho com o reco-

ciada com hematita e outros minerais

sidente Figueiredo, Amazonas, onde

nhecimento oficial da parisita-(La). Ao

do grupo das terras-raras. Foi encon-

também se descobriu a waimirita-(Y),

mesmo tempo, o mineral ralstonita foi

trada em uma mina de Novo Horizonte,

reconhecida em 2014. Segundo Daniel

renomeado como hidrokenoralstonita.

na Bahia, e especialistas das universi-

Atencio, professor de mineralogia do

Os minerais são considerados novos

dades Federal de Minas Gerais (UFMG),

Instituto de Geociências da USP que

apenas após a Comissão de Novos Mi-

Federal de Ouro Preto (Ufop) e de São

participou dos exames dos dois novos

nerais, Nomenclatura e Classificação

Paulo (USP) trabalharam em sua carac-

minerais-tipo, o número total de mine-

(CNMNC) da Associação Mineralógica

terização. A hidrokenoralstonita, ana-

rais identificados no Brasil – com uma

Internacional (IMA), sediada em Bo-

lisada na USP e na Universidade Fede-

média de 1,8 por ano – ainda é muito

chum, Alemanha, aprovar sua descrição

ral do Rio Grande do Sul (UFRGS), é um

baixo, em vista da diversidade de ambientes geológicos brasileiros. “Certamente essa média não condiz com a riqueza mineral brasileira, comparável às dos Estados Unidos e da Rússia”, diz ele. Em cada um desses países já foram descritos cerca de 600 minerais, entre os quase 5 mil reconhecidos pela IMA.

Duas formas da parisita: em um agregado de cristais (esq.) e dentro de um deles (mineral verde-amarelo, à direita)

1

Painel solar movido a calor

Da Vinci e a fricção Em um livro publicado

superfícies em contato.

em 1797, o físico italiano

Agora, Ian Hutchings,

Giovanni Battista Venturi

professor de engenharia

reconheceu o papel

de produção da

Um material capaz de

Xiang Zhang, da

pioneiro do inventor e

Universidade de

irradiar calor de maneira

Universidade da Califórnia

artista italiano Leonardo

Cambridge, Inglaterra,

controlada pode servir

em Berkeley, Estados

da Vinci (1452-1519)

reconstituiu o trabalho

de base para um tipo de

Unidos, desenvolveu o

na apresentação dos

de Da Vinci nesse

painel solar diferente

material, à base de

princípios da fricção,

campo, por meio de

(Nature Communications,

nanoestruturas de fluoreto

força associada à

manuscritos do artista

13 de abril). O novo

de magnésio, ouro e

resistência de duas

italiano espalhados por

equipamento seria capaz

nitreto de silício. A maioria

de captar não apenas

dos materiais irradia calor

a energia da radiação

de forma desordenada,

eletromagnética,

em várias direções. As

percebida na forma de luz,

nanoestruturas do novo

mas também a radiação

material podem ser

infravermelha, o calor.

ordenadas de tal maneira

Além disso, as células

que, quando aquecidas, as

termofotovoltaicas

células termofotovoltaicas

poderiam reutilizar a

irradiariam calor na forma

energia perdida no

de radiação infravermelha

aquecimento de máquinas

com comprimento

em geral. Uma equipe

de onda e direção

coordenada pelo físico

de propagação únicos.

12 | agosto DE 2016

Esboço de 1493: uma rosca de parafuso (desenho superior) e um plano inclinado

2


bibliotecas da Europa,

3

Os genes da carne macia

e concluiu que Da Vinci fez suas primeiras anotações sobre as

Embora bastante

As análises indicaram

prováveis leis da fricção

adaptados ao clima

1.155 regiões com

em 1493 (Wear, agosto).

tropical, os bois da raça

trechos repetidos de

Segundo Hutchings,

Nelore (Bos taurus

DNA em 2.750 genes,

Da Vinci continuou

indicus), predominante no

o equivalente a 6,5%

pensando sobre esse

rebanho bovino brasileiro,

do genoma bovino.

tema por mais de

hoje com quase 210

Várias regiões repetidas

20 anos e incorporava o

milhões de cabeças,

ou deletadas estavam

ainda não oferecem uma

associadas a genes

carne com a maciez

envolvidos no

desejada para satisfazer

metabolismo energético,

os consumidores mais

do composto

exigentes. Uma equipe

hidrogenado trifosfato

da Escola Superior de

de guanosina e do

conhecimento empírico

Raridade: folhas de musgo encontradas na Índia com 52 milhões de anos

sobre fricção nos projetos de engrenagens e aparelhos. Em seus cadernos, várias vezes

fotos 1 Luiz Menezes e Daniel Atencio 2 Biblioteca Nacional de Madri  3 Heinrichs, J. et al. PLOS ONE  4 Gisele ROSSO / Embrapa

ele afirmou que “cada corpo tem uma

primeiros vegetais a

Agricultura Luiz de

antioxidante glutationa,

resistência de atrito igual

ocupar a Terra. Os

Queiroz da Universidade

que, já se sabia, podem

a um quarto do seu peso”.

fragmentos de folhas e

de São Paulo (Esalq-USP),

influenciar a forma

Como suas anotações

caules têm estimados 52

coordenada por

e o funcionamento

não circulavam, Da Vinci

milhões de anos, época

Luiz Coutinho, e

dos músculos. Outras

não teve influência direta

em que as florestas de

pesquisadores de duas

repetições ocorriam

na chamada tribologia,

angiospermas, plantas

unidades da Embrapa, a

nos genes do hormônio

o estudo do atrito entre

com flores e frutos,

Pecuária e a Informática,

somatotropina,

superfícies. As duas leis

começaram a se formar

e da Universidade de

associado ao crescimento

fundamentais da fricção,

(PLOS One, 31 de

Munique, Alemanha,

e diferenciação das

associando essa força

maio). Pesquisadores

examinaram os genes de

células musculares.

à carga ou pressão entre

encontraram no âmbar

723 machos de Nelore.

Essas informações podem

as superfícies em

partes bem preservadas

A conclusão é de que a

ajudar na seleção de

contato, foram

de uma hepática, o que

variação no número

linhagens de animais

anunciadas em 1699

permitiu a descrição

de cópias de trechos

capazes de produzir carne

pelo físico francês

de uma nova espécie,

grandes de DNA, com

mais macia. Investigada

Guillaume Amontons e

chamada Microlejeunea

tamanho mínimo de mil

há um século, a maciez

confirmadas por outro

nyiahae, que se torna

pares de bases, pode ter

é também favorecida

francês, Charles-Augustin

a representante

uma influência direta

por fibras musculares

de Coulomb, em 1781.

mais antiga da família

na qualidade da carne

largas e prejudicada por

(PLoS One, 27 de junho).

estresse ambiental.

Nelore: metabolismo energético influencia a forma dos músculos

Lejeuneaceae, a mais diversificada entre

Briófitas em âmbar

as hepáticas. Botânicos da Alemanha, Malásia, Austrália, Suécia, Hungria, Índia,

No âmbar (resina

Estados Unidos e

fossilizada de árvores)

Brasil – Denilson Peralta,

da região de Cambay,

do Instituto de Botânica

noroeste da Índia,

(IBt) de São Paulo –

já foram encontradas

participaram da

formigas, abelhas

caracterização dessa

e outros insetos

nova espécie já extinta

preservados com

de briófita. A descoberta

dezenas de milhões de

amplia o conhecimento

anos. Agora, análises

sobre os processos

realizadas em outras

de espécies nesse

amostras do âmbar

grupo de plantas

de Cambay mostraram

e indica que outros

hepáticas e musgos,

seres desconhecidos

plantas do grupo das

ainda podem sair

briófitas, um dos

do âmbar indiano.

4

PESQUISA FAPESP 246 | 13


1

As lágrimas de um pássaro

Uma mariposa nutre-se das secreções dos olhos do martim-pescador-grande

Como as baterias morrem A eficiência das baterias

modelo do interior de

elétricas de celulares e

uma bateria de lítio

de notebooks depende

convencional (Nature

da capacidade de

Communications, 28 de

átomos ionizados de

junho). A conclusão

lítio fluírem livremente

desse trabalho foi de que

em seu interior.

os íons de lítio tendem

À medida que a bateria

a se ligar com elétrons

é carregada e

dos átomos que formam

descarregada várias

o interior da bateria,

vezes, seus íons fluem

distorcendo sua

cada vez mais

estrutura atômica.

lentamente, até pararem

Seriam essas distorções

de vez. Experimentos

que desaceleram o

de uma equipe

tráfego dos íons. Os

coordenada pelo químico

engarrafamentos se

Sarbajit Banerjee, da

tornam cada vez mais

Universidade A&M do

frequentes à medida que

Depois de ler um artigo

torquata) com uma

Texas, Estados Unidos,

a bateria envelhece,

sobre mariposas que

mariposa (Azeta melanea)

mostraram pela

reduzindo a eficiência do

se alimentavam da

pousada em seu pescoço.

primeira vez detalhes

processo de carga e

secreção dos olhos de

A mariposa estendia

nanométricos desse

descarga até a falência

pássaros que dormiam

o probóscide – tubo

processo. Analisando

do aparelho. Banerjee

em matas de Madagascar,

sugador do aparelho

uma série de imagens

e seus colegas sugerem

o biólogo Ivan Sazima, do

bucal – até as glândulas

de microscopia e

que novos materiais

Museu de Zoologia da

lacrimais do olho do

espectroscopia de raios

poderiam ser

Universidade Estadual

pássaro, indicando que

X, os pesquisadores

desenhados com

de Campinas (Unicamp),

extraía dali o líquido rico

observaram como os

estruturas atômicas que

procurou exemplos

em sais e proteínas que

íons de lítio se moviam

evitem a interação dos

em florestas brasileiras.

lhe servia de alimento.

por fios nanométricos

íons de lítio com seus

Ele encontrou o que

Segundo Sazima, a

de pentóxido de vanádio,

elétrons, aumentando a

queria em uma imagem

imagem, feita em

material usado no

eficiência e o tempo de

do fotógrafo canadense

dezembro de 2012 na

experimento como um

vida das baterias.

Dan Doucette em um

Amazônia colombiana,

site sobre animais,

é o primeiro registro

o Projeto Noah (www.

desse fenômeno na

projectnoah.org/).

América do Sul

Era um martim-pescador-

(Revista Brasileira de

-grande (Megaceryle

Ornitologia, julho).

Um adenocarcinoma sob o microscópio: o tipo mais comum de câncer de próstata

Exame com proteínas da urina Combinações únicas de proteínas da

laram 133 proteínas que se apresentavam

urina poderiam ajudar os médicos a diag-

em maior ou menor quantidade em um

nosticar câncer de próstata, o segundo

grupo ou outro. Desse total, 34 poderiam

tipo de tumor que mais mata homens.

ser potencialmente úteis como marca-

to do antígeno prostático específico

Pesquisadores da Universidade de To-

dores da progressão tumoral e 14 apre-

(PSA), o teste mais usado em diagnósti-

ronto, Canadá, e de centros de pesquisa

sentaram diferenças quantitativas entre

co precoce. De acordo com os pesqui-

dos Estados Unidos examinaram amos-

homens com e sem metástases (Nature

sadores, essa abordagem – se funcionar

tras de urina de 90 homens com câncer

Communications, 28 de junho). Nesse

adequadamente na próxima avaliação,

de próstata em diferentes estágios e as

estudo, as combinações de proteínas

com mil participantes previstos – pode-

compararam com as amostras de 117

indicaram o estágio do câncer com uma

rá se constituir em um novo teste não

indivíduos saudáveis. As análises reve-

precisão de 70%, acima do nível de acer-

invasivo para câncer de próstata.

14 | agosto DE 2016

2


De volta ao mar

3

Depois de 15 meses de reformas, pintura de tanques e revisão de equipamentos no estaleiro Indústria Naval do Ceará (Inace), de Fortaleza, no Ceará, a um custo de R$ 3,2 milhões, para atender às exigências da certificação internacional, o navio Nebulização em Bali, Indonésia: gastos globais de US$ 8,9 bilhões

oceanográfico de pesquisa Alpha-Crucis, da Universidade de São Paulo, voltou ao mar em 3 de junho. Sua primeira viagem após

O custo da dengue no mundo

o retorno foi realizada

fotos 1 Dan Doucette / Projeto Noah 2 Nephron / WIKIMEDIA  3 WHO / Budi Chandra  4 eduardo cesar

de 4 a 21 de julho para Em 2013, a dengue

para os casos que não

proporcionais à

coleta de amostras

gerou um gasto de

chegam ao sistema de

incidência. No Brasil,

do fundo do mar e

US$ 8,9 bilhões, com um

saúde. De acordo com

variam de US$ 2,5 a

outros estudos na região

total de 58,4 milhões

esse estudo, o Brasil

US$ 5 para cada caso

entre Paranaguá, no

de casos sintomáticos

apresenta uma

tratado. Na Malásia,

estado do Paraná, e

(13,5 milhões fatais) nos

incidência de 751 a mil

com uma incidência

Ubatuba, em São Paulo.

141 países e territórios

casos para cada grupo

de 3 mil a 5 mil

Cinco viagens estão

nos quais essa doença

de 100 mil pessoas,

casos por 100 mil,

previstas para o segundo

é detectada (The Lancet

mais do que o dobro

a maior registrada

Infectious Diseases,

dos 301 por 100 mil

nesse levantamento,

agosto). O cálculo

registrados pelo

o custo por tratamento

resulta de um estudo

Ministério da Saúde em

pode variar de

coordenado por

2012. Os gastos são

US$ 15 a US$ 55.

semestre deste ano Alpha-Crucis, reformado: cinco viagens programadas até dezembro

para estudos, entre outros, da variabilidade climática na porção sul do oceano Atlântico.

Donald Shepard, da Universidade Brandeis, com especialistas da Universidade de Washington, ambas dos Estados Unidos. De acordo com esse levantamento, 48% das pessoas doentes (28,1 milhões) foram tratadas em ambulatório, 18% (10,5 milhões) necessitaram de hospitalização e 34% (19,7 milhões) não receberam tratamento médico. O custo per capita varia de US$ 70,1 para o tratamento hospitalar, US$ 51,1 para o tratamento ambulatorial a US$ 12,9

4

PESQUISA FAPESP 246 | 15


capa

Os

do investimento Em tempos de crise, ressurge a cobrança pelo retorno do financiamento público de pesquisa sem levar em conta que a produção da ciência segue caminhos complexos e interligados Fabrício Marques

E

m tempos de crise econômica, é comum que a sociedade questione a aplicação do dinheiro público e queira privilegiar atividades que deem retorno visível e imediato. Áreas em que os resultados são mais difusos ou menos palpáveis frequentemente passam a ser vistas como não prioritárias na hora da alocação dos recursos. Quando esse fenômeno afeta o sistema de pesquisa, cujo financiamento depende em grande medida – varia de país a país – do Estado, com frequência ele se traduz na oposição entre pesquisa básica e pesquisa aplicada, como se fossem conceitos independentes e não profundamente interligados. O investimento em pesquisa que resulta imediatamente em novos produtos e tecnologias tende a ser visto como o mais importante, por trazer retorno tangível à sociedade. Já os recursos direcionados à ciência básica às vezes são considerados uma extravagância, como pontuou em 1967 o então governador eleito da Califórnia, o republicano Ronald Reagan, ao propor, como medida para resolver problemas orçamentários, que os contribuintes deixassem de financiar a “curiosidade intelectual” em programas e cursos das universidades estaduais. “Nós acreditamos que há certos luxos intelectuais que talvez pudéssemos 16 | agosto DE 2016

dispensar”, disse Reagan, atraindo críticas de toda parte. “Se uma universidade não é o lugar em que a curiosidade intelectual deve ser encorajada e subvencionada, então ela não é nada”, reagiu à época o jornal The Los Angeles Times, em editorial. Na realidade da ciência no século XXI, o debate demanda classificações bem mais complexas do que as duas categorias, pesquisa básica e pesquisa aplicada, têm a oferecer. “Os conceitos de pesquisa pura e aplicada podem ter alguma utilidade em discussões abstratas e funcionar em situações específicas, mas não servem adequadamente para categorizar a ciência”, sustenta Graeme Reid, professor de política científica da University College London, no Reino Unido, e autor do relatório Why should the taxpayer fund science and research? (“Por que o contribuinte deveria financiar a ciência e a pesquisa?”), publicado em 2014. Em primeiro lugar, diz ele, o denominador comum para classificar a ciência deve ser a “excelência”, sem a qual nem o conhecimento básico nem o aplicado produzem resultados consistentes. Reid cita o exemplo do Higher Education Funding Council for England (Hefce), órgão que financia e avalia o sistema universitário de ensino e pesquisa da Inglaterra. O Hefce dis-


Dos gradientes aos exames de ressonância Em 1954, os físicos norte-americanos Hermann Carr (1924-2008) e Edward Purcell (1912-1997) descreveram o uso de gradientes de campo magnético para relacionar frequências de ressonância magnética nuclear com posições espaciais. Os precursores da ressonância magnética não tinham ideia de que seu trabalho criaria uma tecnologia de diagnóstico por imagem largamente usada na medicina.

exemplos de pesquisa basica que resultaram em aplicacoes

Das equações de Maxwell ao rádio de Marconi O desenvolvimento de um dispositivo de recepção denominado coesor permitiu ao italiano Guglielmo Marconi (1874-1937) inventar o rádio. O feito de Marconi, contudo, não teria ocorrido sem as contribuições do físico e matemático escocês James Clerk Maxwell (1831-1879), cujas equações abstratas impulsionaram investigações no campo do magnetismo e da eletricidade, e do físico alemão Heinrich Hertz (1857-1894), que mais tarde demonstrou a existência da radiação eletromagnética.

fotos 1 léo ramos 2 wikimedia commons  3 eric gaba/wiki mediacommons  4 marti/jila 5 Randy Montoya  6  Eduardo Cesar

Da magnetorresistência À miniaturização dos discos rígidos Em 1988 o físico alemão Peter Grünberg e o francês Albert Fert descobriram a magnetorresistência gigante (MRG), um efeito quântico observado em filmes finos compostos de camadas alternadas de metal ferromagnético e não magnético. O achado tornou possível uma radical miniaturização nos discos rígidos, ampliando sua capacidade de armazenar dados, que ajudou a popularizar microcomputadores e equipamentos portáteis de mp3.

tribui recursos sem fazer referência às duas categorias, uma vez que a qualidade da pesquisa é que a habilita a ter impacto. O relatório menciona um documento lançado em 2010 pelo Conselho de Ciência e Tecnologia ligado ao premiê do Reino Unido, intitulado A vision for UK research, segundo o qual o cerne da atividade de pesquisa é sua capacidade de fazer perguntas importantes; a insistência em distinguir uma vertente pura e outra aplicada gera mais problemas e divisões do que produz soluções. Reid observa que os benefícios decorrentes de investimentos em pesquisa ganharam formas variadas que vão muito além da polarização entre as vantagens de compreender melhor os fenômenos por um lado e, por outro, os ganhos gerados pelo desenvolvimento de tecnologias – tais como as startups oriundas de universidades que podem transformar conhecimento em riqueza rapidamente, a atração de investimentos globais em pesquisa e desenvolvimento (P&D) para universidades e polos de inovação ou, ainda, a oferta de mão de obra altamente especializada a empresas e organizações públicas, entre outras. “O ambiente de pesquisa é um ecossistema delicado que oferece múltiplos benefícios para a economia e a sociedade ao longo de caminhos complexos e interligados”, diz.

Do relógio atômico ao GPS Para testar a teoria geral da relatividade de Einstein e avaliar se o tempo de fato fica mais lento sob a ação de um intenso campo gravitacional, físicos propuseram colocar relógios atômicos ultraprecisos em órbita a bordo de satélites artificiais. Essa pesquisa levou o físico Daniel Kleppner, do MIT, a criar na década de 1950 um novo tipo de relógio atômico que desempenhou um importante papel facilitador no desenvolvimento do sistema de geoposicionamento GPS. Do primeiro laser à comunicação por fibras ópticas O primeiro laser foi construído em 1960 pelo físico norte-americano Theodore Maiman (1927-2007). Sua concepção veio da física atômica, em particular os efeitos da emissão estimulada, prevista por Einstein décadas antes. Com o desenvolvimento de lasers a gás, essas fontes de luz permitiram estudos em holografia e interferometria. As aplicações mais importantes vieram com o desenvolvimento de lasers de estado sólido e seu uso na comunicação por fibras ópticas. Eles são usados hoje na medicina, em equipamentos eletrônicos e na tecnologia de escaneamento e impressão. Da estrutura do DNA à indústria da biotecnologia Em 1953, o inglês Francis Crick (1916-2004) e o norte-­ -americano James Watson (1928-) descobriram a estrutura molecular do ácido desoxirribonucleico, o DNA, e revelaram fundamentos da herança genética e da produção de proteínas. O trabalho, que buscava ampliar a compreensão da natureza, lançou as bases da engenharia genética, levou ao desenvolvimento de exames de diagnóstico, a novos tratamentos e criou a bilionária indústria da biotecnologia. PESQUISA FAPESP 246 | 17


O equilibrio de cada pais Destinação dos recursos públicos em P&D, segundo estudo da Universidade de Sussex, Reino Unido Estados Unidos

União Europeia

Noruega

Dinamarca

China

Índia

Investimentos do

O programa

Pesquisa básica

Universidades

Pesquisa aplicada

Três quartos dos

orçamento federal

Horizonte 2020,

recebe 40% dos

recebem 90% dos

responde por 73%

investimentos em

em defesa caíram

com orçamento de

investimentos

recursos públicos

dos investimentos

P&D do governo

de 57,7% do total

€ 80 bilhões para

públicos em P&D e

em P&D. Do total

em P&D do

central vão para

em 2007 para

o período de 2014 a

a pesquisa aplicada

de recursos, 44%

governo central.

pesquisa aplicada e

53% em 2013.

2020, investe, em

e desenvolvimento,

são investidos em

A pesquisa básica

novos produtos; um

Já os recursos para

três partes iguais,

60%. Universidades

pesquisa básica e

fica com um

quarto vai para

pesquisas em saúde

em projetos de

recebem 60% dos

56% em pesquisa

quinhão de 22%

ciência básica.

subiram de 21,9%

ciência básica,

recursos e institutos

aplicada e

Recursos

para 24,3%.

em pesquisas

de pesquisa, 40%

desenvolvimento

despendidos com

Um terço dos

de interesse de

defesa respondiam

investimentos em

empresas e na

por 24,5% do total

P&D vai para

solução de grandes

em 2010, seguidos

ciência básica

desafios da

por agricultura,

sociedade

No lugar de distinguir os benefícios da ciência básica e da aplicada, atores e instituições do sistema de ciência construíram novas formas de classificar os objetivos da pesquisa, que orbitam em torno de um conceito-chave: o impacto que o investimento pode produzir. “Impacto é um conceito bastante amplo e tem várias dimensões, como o social, o econômico e o intelectual”, destacou Carlos Henrique de Brito Cruz, diretor científico da FAPESP, no capítulo que escreveu para o livro University priorities and constraints (Economica, 2016), que reúne as contribuições de 23 líderes de universidades de pesquisa apresentadas em junho de 2015 no fórum Glion Colloquium, na Suíça. Existem pesquisas que promovem benefícios à sociedade ao inspirarem ou darem respaldo a políticas públicas em praticamente todas as esferas. Um exemplo geral é o da contribuição de várias disciplinas para a compreensão de fenômenos ligados ao clima. Outro, específico, é o papel dos resultados do programa Biota-FAPESP na atividade legislativa. Criado em 1999 para mapear a biodiversidade do estado de São Paulo, o programa produziu conhecimentos divulgados na forma de artigos científicos, livros, atlas e mapas, que serviram de referência para a criação de seis decretos governamentais e 13 resoluções sobre o ambiente. Num estudo de 2005, financiado pelo Departamento de Pesquisa, Ciência 18 | agosto DE 2016

Fonte  Comparative Study on Research Policy – Spru/ Universidade de Sussex, outubro de 2015

e Tecnologia de Quebec, no Canadá, os cientistas políticos Benoît Godin e Christian Doré buscaram mapear os diferentes tipos de impacto gerados pela pesquisa e chegaram a uma lista de 11 itens. Alguns são notórios, como o científico, o tecnológico e o econômico. Outros são menos estudados, como o impacto cultural, entendido como as transformações nas habilidades e atitudes dos indivíduos geradas pela compreensão ampliada de fenômenos da natureza; ou o impacto organizacional, em que novos conhecimentos ajudam a aperfeiçoar a gestão (ver quadro na página 21). “Embora o impacto econômico não deva ser negligenciado, ele representa uma fração de um todo que se estende para as esferas social, cultural e organizacional da sociedade”, explicaram Godin e Doré no estudo. A CIÊNCIA PELA CIÊNCIA

Um grande vilão nessas discussões é a chamada pesquisa conduzida pela curiosidade, entendida de forma equivocada como sinônimo de pesquisa básica. Trata-se, na verdade, daquela em que o cientista escolhe o tema sobre o qual se debruçará – em vez de ser induzido a pesquisar determinada área ou problema –, que pode ter um caráter abstrato, aplicado ou ser uma combinação de ambos. Embora não intencionalmente, essa vertente já produziu contribuições marcantes em áreas como lasers, física

com 17,7%

atômica e biotecnologia. Um caso clássico aconteceu em 1983 quando duas equipes de pesquisadores, trabalhando em países diferentes, descobriram que um retrovírus, posteriormente batizado de HIV, era o causador de uma doença recém-descoberta, a síndrome da imunodeficiência adquirida (Aids). As equipes do norte-americano Robert Gallo e do francês Luc Montagnier obtiveram êxito graças a anos de pesquisa sobre retrovírus impulsionada pela curiosidade de cientistas, pois não se imaginava que tivesse relevância para a saúde humana (ver mais exemplos na página 17). A pesquisa com impacto intelectual pode também resultar em impacto econômico ou social, mas uma parte dela servirá exclusivamente para ampliar o limiar do conhecimento, sem um retorno tangível imediato. “Nem sempre há um ponto final a ser alcançado pela pesquisa básica”, disse o bioquímico Stephen Buratowski, professor da Universidade Harvard, cujo laboratório estuda mecanismos de expressão dos genes em células eucariontes, numa entrevista ao site da Harvard Medical School. “Muitos dos assuntos estudados a partir da curiosidade dos cientistas buscam responder a questões fundamentais da biologia. Sua compreensão permite seguir adiante e enfrentar problemas clínicos concretos.” Um exemplo de nova categoria de produção de conhecimento fortemente basea-


da na pesquisa movida pela curiosidade é a chamada pesquisa transformadora, que envolve ideias e descobertas com potencial para mudar radicalmente a compreensão sobre conceitos científicos e criar novos paradigmas. O termo, adotado na segunda metade da década passada pela National Science Foundation (NSF), principal agência de pesquisa básica dos Estados Unidos, e pelo Engineering and Physical Sciences Research Council (EPSRC), do Reino Unido, define não somente pesquisa que envolve criatividade e alto risco, mas também aquela com capacidade de levar a tecnologias radicalmente novas – com possibilidade de retorno fabulosa. Mas, para alcançar esses resultados, é preciso considerar que ideias realmente revolucionárias podem demandar um longo tempo de desenvolvimento, possivelmente exijam altos investimentos e, ao final, talvez não apresentem os resultados desejados. Assim é a ciência.

Bettmann / Getty Images

A

dificuldade de compreender essas limitações da ciência frequentemente gera tensões. Em fevereiro, foi aprovada na Casa dos Representantes dos Estados Unidos, a Câmara dos Deputados do país, um projeto de lei que propõe mudanças no processo de avaliação da NSF. O texto, que ainda precisa ser votado pelo Senado, exige que todo projeto de pesquisa apresentado à NSF venha acompanhado por uma justificativa descrevendo como ele não apenas “promove o progresso da ciência nos Estados Unidos” mas também atende ao “interesse nacional”. “Muitos dos critérios mencionados para determinar se um projeto é de interesse nacional não se aplicam à ciência básica”, reagiu John Holdren, diretor do escritório de Política Científica e Tecnológica da Casa Branca, ao propor o veto ao projeto se ele for aprovado. “Os autores da lei questionam se a pesquisa vai aumentar a competitividade da economia, melhorar a saúde e o bem-estar, fortalecer a defesa nacional. Isso só tem a ver com pesquisa aplicada. Será que eles não entendem que a pesquisa básica envolve a busca da compreensão científica sem antecipar qualquer benefício particular?”, indagou. Esse tipo de pressão no parlamento não é novidade para a NSF. Em 2013, a agência suspendeu a seleção anual de projetos em ciência política depois que o Congresso aprovou uma lei impedindo-a de financiar

pesquisas nesse campo do conhecimento sem que houvesse garantias de que elas beneficiariam a segurança nacional ou tivessem algum interesse econômico. Nas negociações do orçamento, o senador republicano Tom Coburn referiu-se ao “desperdício de recursos federais em projetos de ciência política”. CONHECIMENTO E DESENVOLVIMENTO

A discussão sobre o investimento público em pesquisa vem desde que vários países decidiram estruturar sistemas públicos nacionais de ciência e tecnologia. Isso aconteceu depois da Segunda Guerra Mundial, quando a aplicação de uma série de desenvolvimentos científicos, como o radar e o plástico e a expansão da ciência da nutrição, teve grande impacto, consolidando a percepção de que conhecimento leva ao desenvolvimento, justificando dessa forma o financiamento estatal. O modelo estabelecendo que cabe ao Estado apoiar a pesquisa básica e a aplicada foi desenhado pelo engenheiro norte-americano Vannevar Bush, que chefiou o US Office of Scientific Research and Development (OSRD), órgão do go-

Em 1967, o governador da Califórnia, Ronald Reagan, enfrentou protesto contra seu plano de cortar US$ 64 milhões do orçamento das universidades estaduais: para ele, financiamento à “curiosidade intelectual” poderia ser dispensado

verno norte-americano por meio do qual praticamente todo o esforço de P&D foi executado durante a guerra. Por encomenda do governo, em 1945 Bush produziu um documento intitulado Science, the endless frontier (Ciência, a fronteira sem fim), no qual propôs que a pesquisa básica deveria ser realizada sem pensar em finalidades práticas. Esse conhecimento geral forneceria meios para enfrentar um grande número de problemas práticos importantes, ainda que não desse respostas completas específicas para nenhum deles – caberia à pesquisa aplicada providenciar as soluções. “A maneira mais simples e eficaz pela qual o governo pode fortalecer a pesquisa empresarial é apoiar a pesquisa básica e desenvolver talentos científicos”, escreveu Bush. Num artigo publicado em 2014 na Revista Brasileira de Inovação, Carlos Henrique de Brito Cruz lembra que Bush considerava insuficiente o volume de pesquisa básica produzido nos Estados Unidos naquela época, tanto que muitas aplicações desenvolvidas no país se baseavam em conhecimento fundamental oriundo de universidades europeias. As reações que o relatório suscitou nos Estados Unidos foram curiosas, como mostrou Brito Cruz: “O New York Times criticou por achar que o relatório propunha pouco envolvimento governamental no apoio à pesquisa; o Wall Street Journal criticou, defendendo que a indústria poderia fazer tudo que ali se propunha, desde que recebesse mais redução de impostos via

PESQUISA FAPESP 246 | 19


A divisao dos orcamentos Valores (em milhões de US$) e porcentagem dos orçamentos de agências de fomento dos EUA dedicados à pesquisa básica e à pesquisa aplicada no ano fiscal 2015 Pesquisa básica

Pesquisa aplicada

15.174,1

13.892,1

Institutos Nacionais de Saúde

Departamento de Energia

5.689,2

4.547,5

Nasa

3.260,8

Departamento de Defesa

2.366,9 5.333,4

2.260,7

Departamento de Agricultura

1.132,0

1.008,7

Outros Fonte AAAS

706,8

5.052,6

National Science Foundation

1.121,7 0%

5.880,7 20%

40%

60%

80%

100%

Desembolso da FAPESP por objetivo de fomento, em 2015, em R$ milhões* *Não inclui desembolsos com infraestrutura de pesquisa, que foram de R$ 93.813.340 Fonte fapesp

Avanço do conhecimento (Básica)

Pesquisa com vistas a aplicações (Aplicada)

472,7

622,1

0%

20%

incentivos fiscais. E o diretor do Escritório de Orçamento do governo, Harold Smith, considerou inadequada a defesa de liberdade de pesquisa com recursos públicos. Jocosamente ele sugeriu que o relatório poderia ter seu título trocado para ‘Ciência: a despesa sem fim’”. “Bush defendeu a liberdade de pesquisa e o investimento em ciência desvinculado de qualquer tipo de interesse sobre aplicações”, conta a cientista política Elizabeth Balbachevsky, da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP). Para Bush, a ciência constituía uma fonte inesgotável de conhecimento e de desenvolvimentos que propiciava inovações. O documento inspirou a criação da NSF em 1950 e serviu de norte para a formação de agências de fomento à pesquisa de vários países, inclusive o Brasil, interessados em criar seus sistemas de ciência e tecnologia. Esse sistema funcionou sem grandes sobressaltos até os anos 1970, quando o mundo viveu a primeira crise econômica pós-guerra abarcando os principais países desenvolvidos, que arrastou consigo muitos países em desenvolvimento. Os governos começaram a cobrar um retorno mais rápido dos investimentos públicos em ciência. “O custo cada vez mais 20 | agosto DE 2016

40%

60%

80%

100%

alto da pesquisa também pressionou os orçamentos de governos e agências de fomento e contribuiu para levar à busca do impacto e do resultado de curto prazo”, explica Brito Cruz. Segundo dados do Tufts Center for the Study of Drug Development, os custos de testes pré-clínicos e clínicos de novos medicamentos aumentaram 15 vezes entre as décadas de 1970 e 2010 – apenas na década passada, o aumento foi de 145%. Ao mesmo tempo, buscou-se ampliar e compreender melhor as interações das universidades com as empresas e o governo. “O boom de empresas startups a partir da década de 1980 deixou claro para os contribuintes e seus representantes que havia ali uma oportunidade madura a ser explorada: a de criar riqueza a partir do conhecimento numa velocidade bem maior do que a obtida antes”, diz Brito Cruz.

E

m 1980, entrou em vigor o Bayh-Dole Act, legislação norte-americana que trata da propriedade intelectual decorrente de pesquisa financiada pelo governo. Até então, o governo não tinha uma política unificada quanto a essas patentes. Acordos de financiamento de pesquisa firmados pelas agências governamentais com instituições de pesquisa, empresas ou organizações sem fins

lucrativos passaram a incluir cláusulas que permitem que o governo abra mão da titularidade de invenções. Uma dimensão importante da nova legislação consistiu na ampliação dos resultados de pesquisa patenteáveis, que passaram a incluir conhecimentos e métodos não diretamente associados a uma aplicação. Parcerias entre universidades e empresas, programas de apoio à pesquisa em pequenas empresas e licenciamento da propriedade intelectual produzida por pesquisadores se tornaram alvos de agências de fomento, universidades e instituições de pesquisa. A intensidade da interação entre universidades e empresas tem como uma de suas medidas a participação relativa da indústria no financiamento à pesquisa. Nos Estados Unidos, essa porcentagem oscilou entre 5% e 7% em anos recentes. Na maioria dos países da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), a participação do setor privado no financiamento da pesquisa das universidades varia de 2% a 10%. Um ponto fora da curva é a Alemanha, onde chega a 14%. Tais interações são, em geral, vias de mão dupla. As indústrias recorrem às universidades para partilhar riscos da pesquisa, além de ter acesso a cientistas qualificados, instalações apropriadas e quadros de pesquisadores e estudantes que podem robustecer seu corpo de pesquisa. As universidades tendem a enxergar as colaborações como uma oportunidade de captar recursos para pesquisa e ter acesso aos desafios científicos e tecnológicos enfrentados pelas forças produtivas. De acordo com Carlos Américo Pacheco, professor do Instituto de Economia da Unicamp, a experiência internacional mostra que a produção de patentes nas universidades e o licenciamento de propriedade intelectual para as empresas ocupam papel importante, porém complementar, no interesse das empresas. “As fontes de informação para a inovação tecnológica das empresas são mais baseadas na sua cadeia de fornecedores e de clientes do que nas universidades. É com a ciência que as empresas viabilizam seus esforços de desenvolvimento, mas elas se pautam mais no que o mercado pede do que no que a universidade tem a oferecer”, afirma. Segundo ele, a criação de startups tem sido um mecanismo mais sofisticado e eficiente de aproximar a academia do setor priva-


do. “Isso tem fortalecido certos clusters regionais em torno das universidades, atraindo laboratórios de empresas e investidores, que se tornam um microcosmo estimulante”, esclarece Pacheco, que foi secretário executivo do Ministério da Ciência e Tecnologia entre 1999 e 2002. O QUADRANTE DE PASTEUR

Um marco do debate sobre a distinção entre ciência básica e aplicada foi a publicação do livro O quadrante de Pasteur – A ciência básica e a inovação tecnológica (Editora Unicamp, 2005), do cientista político Donald Stokes, da Universidade de Princeton. Na obra, Stokes propôs uma nova classificação. Além das pesquisas básicas – que tem como bom exemplo os trabalhos do físico dinamarquês Niels Bohr sobre a estrutura atômica e a física quântica na primeira metade

do século XX – e as de desenvolvimento tecnológico – simbolizadas pela iluminação elétrica de Thomas Edison –, Stokes destacou outra categoria: a das que podem contribuir para o avanço do conhecimento ao mesmo tempo que têm perspectivas de aplicação prática de alto impacto (ver quadro na página 23). As investigações do francês Louis Pasteur na área de microbiologia, que fizeram avançar o conhecimento e renderam benefícios econômicos, são usadas como um dos exemplos dessa categoria, além de inspirar o título do livro. “Stokes mostrou que o modelo de Vannevar Bush funcionou nos Estados Unidos de modo diferente do que se verificou em outros países, uma vez que o governo norte-americano investia muito em áreas básicas, mas que buscavam responder questões práticas de médio e de longo

prazo”, afirma Balbachevsky. “É o caso de agências como os Institutos Nacionais de Saúde, que detêm mais recursos do que a NSF, ou o Departamento de Defesa.” Os Estados Unidos sempre mantiveram um sistema dual, preocupando-se com o avanço do conhecimento, de um lado, e aplicações de outro – e cada agência de fomento destina recursos às duas categorias (ver quadro na página 20). A percepção de que esse tipo de investimento multiplicou a capacidade de inovação norte-americana mobilizou a Europa nos anos 1990. “Os países europeus haviam seguido o modelo de Bush e produziram ciência de alta qualidade, mas não desenvolveram a mesma interface com o setor produtivo”, prossegue Balbachevsky. O que se viu, nas últimas duas décadas, foi um esforço na Europa para criar interfaces com o setor empresarial. “Na Comuni-

Os tipos de impacto da ciencia Pesquisa feita no Canadá mapeou 11 tipos de impactos gerados pela produção do conhecimento. Foram entrevistados pesquisadores e organizações que se beneficiam do conhecimento científico

Impacto científico

Impacto econômico

Impacto simbólico

Quando os resultados de pesquisa

Refere-se a impactos que geram riqueza,

Empresas também têm ganhos de

incentivam o progresso do

como a comercialização de inovações,

credibilidade por investir em pesquisa

conhecimento, produzindo novos

o retorno do investimento em profissionais

e desenvolvimento e por se associar

modelos e teorias e desenvolvendo

capacitados ou o desenvolvimento

a pesquisadores de universidades

áreas e disciplinas

de novos mercados

em projetos de interesse mútuo

Impacto político

Impacto na saúde

Impacto social

Efeitos gerados por novos conhecimentos

Tem a ver com o efeito de pesquisas sobre o

Está relacionado a resultados de pesquisa

científicos na esfera da legislação,

aumento da expectativa de vida das pessoas

que melhoram o bem-estar e a qualidade

da jurisprudência e da ética,

e na prevenção e tratamento de doenças, ou

de vida de indivíduos ou mudam antigas

na formulação de políticas públicas

na redução de custos do sistema de saúde

concepções e os discursos da população

ou na mobilização dos cidadãos Impacto cultural

Impacto educacional

Impacto organizacional

Transformações nas habilidades

Refere-se à criação de novos programas

Influência de resultados de pesquisa

e nas atitudes dos indivíduos geradas

curriculares e ferramentas pedagógicas

na gestão de empresas e instituições,

pela compreensão ampliada

nas universidades, assim como ao ganho

na organização do trabalho e de

de fenômenos da natureza e pela

de competências dos alunos em fazer

recursos humanos

utilização de novas tecnologias

pesquisa ou responder a demandas do mercado de trabalho

Impacto tecnológico

Impacto no ambiente

Inovações em produtos, serviços

Vincula-se a pesquisas que lastreiam

e processos e o desenvolvimento

a conservação da biodiversidade

de competências técnicas são gerados

e a gestão da poluição ou ampliam a

por atividades científicas

compreensão de fenômenos climáticos

Fonte  Measuring the impacts of Science: beyond the economic dimension, de Benoît Godin e Christian Doré

PESQUISA FAPESP 246 | 21


dade Europeia, hoje, praticamente todos os programas buscam formar redes nas quais governos e empresas entram com uma parte dos recursos.” No Horizonte 2020, principal programa científico da União Europeia, com orçamento de € 80 bilhões (cerca de R$ 285 bilhões) de 2014 a 2020, os recursos são divididos em três partes. Uma delas é a pesquisa básica, que financia projetos conduzidos pela curiosidade, mas também em temas que se propõem a dar lastro a novas tecnologias. A segunda é a pesquisa em empresas, que disponibiliza recursos e créditos para grandes, médias e pequenas companhias, inclusive em programas cujo retorno é considerado de alto risco. E, por fim, a da pesquisa que busca enfrentar “desafios da sociedade” em tópicos interdisciplinares como envelhecimento da população, eficiência energética e segurança alimentar. A noção de desafio da sociedade tornou-se onipresente no orçamento de pesquisa de muitos países, de acordo com um relatório divulgado em outubro de 2015 por um grupo de pesquisadores da Unidade de Pesquisa em Política Científica da Universidade de Sussex, na Inglaterra. O trabalho, que comparou o investimento público em P&D realizado em países nórdicos (Suécia, Noruega, Dinamarca e Finlândia), com alguns dos Bric (Brasil, Índia e China) e os Estados Unidos,

mostrou que essa categoria ganhou ênfase nas estratégias de todas as nações estudadas, com investimentos em áreas como energia, clima e saúde. O ponto fora da curva, segundo o relatório, são os Estados Unidos, onde as dotações do governo para P&D têm forte concentração na área de defesa (53% do total em 2013), com a área da saúde em segundo lugar (24,3% do total). A pesquisa conclui que não existe um padrão envolvendo a parcela ideal de investimento a ser dedicada para as pesquisas básica e aplicada. A tendência nos países nórdicos é despender perto de 40% dos recursos públicos em ciência na pesquisa básica. Já a China e a Índia despendem uma proporção menor, na casa dos 20% a 25% (ver quadro na página 18). O estudo não encontrou dados consolidados sobre a divisão de investimentos no Brasil. ESTADO EMPREENDEDOR

Afinal, o Estado deve ou não investir em pesquisa? Para a economista italiana Mariana Mazzucato, professora da Universidade de Sussex, o investimento público em ciência tem um papel crucial na produção de conhecimento, principalmente quando esse processo envolve custos e riscos elevados, que são evitados pelas empresas. Esse é um dos motes de seu livro O Estado empreendedor (Companhia das Letras, 2014). Segundo a obra,

As funcoes da pesquisa Segundo definições da National Science Foundation

Pesquisa básica Estudo sistemático direcionado para o conhecimento ou a compreensão mais aprofundados de aspectos

Pesquisa aplicada

fundamentais de fenômenos e fatos

Estudo sistemático a fim de

observáveis, sem ter em mente

atingir o conhecimento ou a

aplicações específicas com respeito

compreensão necessários para

a processos ou produtos

determinar os meios pelos quais uma necessidade específica e reconhecida pode ser satisfeita

Desenvolvimento Uso sistemático de conhecimento ou compreensão obtidos graças à pesquisa, dirigido para a produção de materiais, dispositivos e sistemas ou métodos úteis, incluindo desenho e desenvolvimento de protótipos e novos processos. Isso exclui controle de qualidade, testes rotineiros de produtos e produção 22 | agosto DE 2016

mesmo em áreas altamente inovadoras, como a farmacêutica, a de energias renováveis ou a de tecnologia da informação, o setor privado só entra em campo depois de o financiamento público ter bancado investimentos vultosos em pesquisa em fases nas quais os resultados eram totalmente incertos. “Na biotecnologia, nanotecnologia e internet, o capital de risco chegou 15 ou 20 anos depois que os investimentos mais importantes foram feitos com recursos do setor público”, escreveu Mazzucato. “O Estado está por trás da maioria das revoluções tecnológicas e dos longos períodos de crescimento. É por isso que um ‘Estado empreendedor’ é necessário para assumir o risco e a criação de uma nova visão, em vez de apenas corrigir as falhas do mercado.” Em suas palestras, ela menciona o exemplo dos smartphones para mostrar que boa parte da tecnologia que eles contêm dependeu de investimentos públicos, notadamente do Departamento de Defesa dos Estados Unidos, quando nem se imaginava o alcance que teriam, como a internet, o sistema de navegação GPS e a tela sensível ao toque. A defesa do investimento estatal na chamada pesquisa básica ganhou recentemente o respaldo do país que mais investe em P&D em termos relativos – o equivalente a 4% de seu Produto Interno Bruto – e que, tradicionalmente, despende menos de 20% desse total em ciência básica: a Coreia do Sul. A estratégia que pavimentou o desenvolvimento de sua economia, baseada no aperfeiçoamento e no barateamento de tecnologias criadas em outros países, voltou sua atenção para a pesquisa básica. Na cidade de Daejeon está sendo construído um experimento voltado para detectar a existência do áxion, uma partícula que hipoteticamente comporia a chamada matéria escura, que forma boa parte do Universo mas é invisível. Trata-se de uma iniciativa de alto risco, que simboliza a ambição do país de se tornar uma liderança em pesquisa básica. Se tiver êxito, o projeto, que custa ao país US$ 7,6 milhões por ano, poderia dar à Coreia do Sul um sonhado prêmio Nobel. Em maio, a presidente sul-coreana Park Geun-hye anunciou que aumentará em 36% o nível de financiamento da pesquisa básica no país. “A pesquisa básica começa com a curiosidade intelectual de cientistas e técnicos, mas pode se tornar uma fonte


O quadrante de Pasteur Relevância para o avanço do conhecimento

Classificação de projetos de pesquisa feita pelo cientista político Donald Stokes propôs categorias, para além dos limites da ciência básica e da aplicada, divididas em quatro quadrantes

Louis Pasteur Niels Bohr

(1885-1962)

compreender processos microbiológicos

Os trabalhos do físico dinamarquês

com impactos práticos, como a

contribuíram para a compreensão da 1

estrutura dos átomos e da física quântica

prevenção de deterioração de produtos 2

Stokes destinou esse quadrante a pesquisas sobre

Thomas Edison

fatos particulares que não têm aplicação previsível

(1847-1931)

O inventor e empresário norte-

nem apresentam explicações gerais sobre

-americano registrou mais de 2 mil

fenômenos. Deu como exemplo as pesquisas do

patentes. Criou, entre outros,

ornitologista norte-americano Roger Tory Peterson, autor do Guia de aves da América do Norte

(1822-1895)

Estudos do francês buscaram

3

o fonógrafo e a luz elétrica

fotos 1 AB Lagrelius & Westphal 2 Félix Nadar  3 Louis Bachrach

Relevância para aplicações imediatas

de novas tecnologias e indústrias”, disse ela, segundo a revista Nature. Havendo consenso em que o Estado precisa investir em pesquisa pelos frutos tangíveis e intangíveis que ela rende, persiste a discussão sobre como distribuir os recursos disponíveis para atingir expectativas da sociedade no curto e no longo prazo. As questões que se colocam para políticos e gestores do sistema público de ciência e tecnologia consistem em determinar o quanto deve ser destinado a cada categoria de pesquisa e até que ponto eles devem interferir, ao distribuírem recursos, para determinar o que os cientistas devem pesquisar. A busca de equilíbrio é importante para que as instituições públicas de pesquisa consigam obter resultados de impacto para a sociedade e ao mesmo tempo sigam produzindo um estoque consistente de conhecimento fundamental. Quando todo mundo se move para um só lado do barco, ele acaba tombando, disse Francis Collins, presidente dos Institutos Nacionais de Saúde, ao defender, num artigo da revista Science de 2012, a importância de preservar os dispêndios da agência em pesquisa básica. Mas também cabe aos pesquisadores mostrar à sociedade continuamente o que estão fazendo e os impactos do conhecimento produzido, conforme sustentou um editorial da revista Nature, no final de julho, ao comemorar os resultados de uma avaliação-piloto feita

pelo European Research Council sobre 199 projetos de pesquisa básica que financiou. A avaliação mostrou que três quartos dos projetos geraram avanços científicos significativos e pelo menos um quarto teve impacto sobre a economia, a sociedade ou a formulação de políticas.

A

utilidade do “conhecimento inútil” é sintetizada pela conversa entre o educador norte-americano Abraham Flexner, fundador do Instituto de Estudos Avançados da Universidade de Princeton, e o empresário George Eastman, inventor do filme fotográfico, relatada em artigo publicado por Flexner na revista Harpers, em 1939 (library.ias.edu/ files/UsefulnessHarpers.pdf ). Eastman pensava em dedicar sua vasta fortuna à promoção da educação em temas úteis. Flexner perguntou ao empresário quem ele considerava o “trabalhador da ciência mais útil do mundo”. Ouviu prontamente como resposta: Guglielmo Marconi, o italiano que inventou o rádio. Flexner surpreendeu seu interlocutor ao declarar que, independentemente da utilidade do rádio, a contribuição do italiano era mínima. Explicou que Marconi não teria feito nada sem as contribuições do cientista escocês James Clerk Maxwell, cujas equações abstratas impulsionaram investigações no campo do magnetismo e da eletricidade, e do físico alemão Hein-

rich Hertz, que mais tarde demonstrou a existência da radiação eletromagnética. “Nem Maxwell nem Hertz tinha qualquer preocupação relacionada à utilidade de seu trabalho; tal pensamento nunca passou pela cabeça deles. Eles não tinham nenhum objetivo prático. Evidentemente, o inventor, no sentido legal, foi Marconi, mas o que Marconi inventou? Apenas um último detalhe técnico, um dispositivo de recepção, o coesor, que já se tornou obsoleto, quase universalmente descartado”, disse Flex­ ner. Hertz e Maxwell não inventaram nada, mas seu “trabalho teórico inútil” foi utilizado por um técnico inteligente para criar novos meios de comunicação, utilidade e diversão, escreveu o educador. “Quem foram os homens úteis? Não Marconi, mas Clerk Maxwell e Heinrich Hertz. Hertz e Maxwell eram gênios sem pensamento utilitário. Marconi foi um inventor inteligente, com nenhum outro pensamento além do utilitário.” n Referências Brito Cruz, C. H. “University research comes in many shapes”, p. 131-42 in University priorities and constraints, Weber, Luc E. and Duderstadt, James J. (eds.). Glion Colloquium Series. n. 9 (Economica London, Paris, Genève, 2016). Mazzucato, M. O Estado empreendedor. São Paulo: Companhia das Letras, 2014. Bush, V. Science: The endless frontier. Reproduzido em Revista Brasileira de Inovação. v. 13, n. 2 jul./dez. 2014.

PESQUISA FAPESP 246 | 23


entrevista Luiz Tatit

A forma exata da canção Com vasta carreira na música popular, linguista dá prioridade à investigação acadêmica da gênese da melodia a partir da fala Márcio Ferrari  |

retrato

Léo Ramos

idade 64 anos especialidade Semiótica e canção

M

esmo se considerando “mais acadêmico do que músico” – nada de vida boêmia nem o perfil avoado que se costuma atribuir aos criadores –, Luiz Tatit nunca deixou de seguir os chamados da arte. Com o grupo Rumo, fundado em 1974, gravou seis discos, um DVD e fez numerosos shows. Quando a banda decidiu se desfazer, em 1991, Tatit pensou que sua carreira musical havia terminado, mas houve convites irresistíveis de parceria. O professor voltou aos palcos e, em 1997, também ao estúdio para gravar o CD Felicidade (1997), o primeiro de sete até agora. O mais recente, Palavras e sonhos, saiu este ano. “Sempre estive imerso numa dinâmica paradoxal”, escreveu o músico e linguista em um capítulo autobiográfico da segunda edição do livro Todos entoam (Atêlie Editorial, 2014). “Faço canções embebido de linguagem coloquial e escrevo textos calibrados na árida tradição do discurso semiótico francês.” Dentre esses textos – fruto do conhecimento acumulado numa carreira acadêmica da qual se aposentou há dois anos – estão os livros Semiótica da canção: Melodia e letra (Escuta, 1994), Musicando a semiótica (Annablume, 1997) e Análise semiótica através das letras (Ateliê, 2001), ao lado de obras que, sem perder o rigor da pesquisa, procuraram atingir um público mais amplo, como O cancionista: Composição de can-

24 | agosto DE 2016

formação Graduação em linguística (1978) e música (1979) pela Universidade de São Paulo; mestrado, doutorado e livre-docência na Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP), onde hoje é professor titular instituição FFLCH-USP produção científica 34 artigos, 29 capítulos de livros, 11 livros próprios e 2 com outros autores. Orientou 26 dissertações de mestrado e 20 teses de doutorado (3 em andamento)



Quase todos os que lidam com canção tocam de ouvido. Não tiveram aprendizado musical, nem é preciso

26 | agosto DE 2016

ções no Brasil (Edusp, 1995) e O século da canção (Ateliê, 2014). “Meu problema é como explicar a criação, e os artistas normalmente não se propõem a isso”, resume Tatit. Hoje o pesquisador dá aula apenas na pós-graduação do Departamento de Linguística da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (FFLCH-USP), que frequentou, na graduação, quase paralelamente ao curso de música da Escola de Comunicações e Artes (ECA-USP). Tatit só se deu o direito de ser ligeiramente indisciplinado em um aspecto. “Tenho ojeriza a todas as funções burocráticas: chefia, coordenação, diretoria...”, conta. “Mas o departamento sempre foi compreensivo quanto a isso. Nesses momentos, eles dizem: ‘Deixa, ele é artista’.” Quando você entrou na ECA, já pensava em fazer o curso de música? Não, o curso nem existia. Foi criado no segundo ano em que eu estava lá, em 1971. Minha opção pela ECA foi para adiar a decisão do que fazer. Eu sabia que minha área era humanidades, mas não tinha vontade de ir para o campo do direito, como meu pai. Sabia que o início do curso era básico. A ideia era escolher a carreira depois do primeiro ano. Pensei em publicidade, jornalismo, até cinema, porque havia assistido a aulas do Paulo Emilio Salles Gomes e fiquei encantado. Mas eu não tinha interesse específico por nada. Foi quando surgiu o curso de música. Era uma solução? Antes de entrar para o curso, eu nunca tinha feito contato com a teoria musical. Meu irmão [Paulo Tatit, criador da dupla Palavra Cantada, com Sandra Peres] e eu ganhamos um violão quando tínhamos 11 ou 12 anos. Fomos aprendendo, mas era tudo de ouvido. Eu achava que o que eu fazia era um pouco de música, porque já compunha e me apresentava, mas tudo no âmbito da canção. Quando cheguei ao curso, vi que música era outra coisa. Eu me empenhei para me adaptar porque estava precisando de um curso que me interessasse – música era uma possibilidade, pelo menos na ideia. E a ECA estava precisando de alunos que já estivessem na universidade, porque era uma opção apenas para quem tivesse completado o primeiro ano básico. Estudei intensamen-

te durante uns três meses. Eles mesmos me ajudaram. O maestro Olivier Toni, que era chefe do Departamento de Música, indicou um professor que poderia me ensinar rapidamente alguns elementos para fazer o teste de aptidão, claro que de uma forma atabalhoada. Acabei passando e fiz o curso inteiro. Normalmente as pessoas paravam no meio porque, como eu, entravam pensando em canção. Terminei o curso para constatar que não era o que eu queria. Não havia curso para o que você queria? Minha trajetória, tocando de ouvido, é mais ou menos a de todos que lidam com canção. Não tem trabalho de aprendizado musical, nem é preciso. Não conheço um compositor que tenha se beneficiado do aprendizado musical para fazer canção melhor. Nem Tom Jobim? Ele é exceção, talvez ao lado do Edu Lobo, que aprendeu música tardiamente. O Jobim é um dos poucos casos de músico que faz boas canções. Normalmente os músicos são precários na canção ou quando produzem alguma coisa interessante demoram muito. Um cancionista de verdade faz centenas de boas canções. Foi algo que só o tempo me fez constatar. Nada restou da passagem pelo Departamento de Música? O curso era de música erudita, e erudita de vanguarda. Eu perseverei, até por ser um desafio. Claro que a música erudita também tem coisas que encantam a gente. Fiquei envolvido nas análises das óperas e sinfonias de Mozart e até no estudo dos dodecafônicos. No entanto, via que aquilo nada tinha a ver com o que eu produzia e não iria aproveitar na minha atividade. Só culturalmente. Como eram os professores do departamento? Eu fiz muitos amigos entre os colegas, os professores e os instrumentistas de orquestra, mas os professores que realmente contavam em termos ideológicos eram o Willy Corrêa de Oliveira e o Olivier Toni. Era um curso muito elitista. O Toni gostava de ironizar o que eu fazia, mas gostava de mim pessoalmente. Tínhamos uma briga declarada, mas amistosa. E ele dava aulas muito boas sobre ópera e harmonia. Até hoje, quando faço


1

Tatit (de barba) em foto da época do primeiro disco, de 1981: perdendo a ênfase didática com o processo de profissionalização

arquivo Pessoal

análise harmônica, uso o que aprendi com ele. O Willy Corrêa de Oliveira era outra coisa, um compositor de música erudita muito ortodoxo. Na época era apaixonado pela música de vanguarda e dava a linha ideológica do departamento. Todos os seus alunos ficavam muito impressionados porque ele encarava a música como uma missão de vida. Só compunha coisas “puras” que pudessem ser explicadas do ponto de vista lógico, tanto que depois ele escreveu um livro com o título Beethoven proprietário de um cérebro. Quando havia greve, Willy levava a gente para ter aula na casa dele. Ele acreditava no que fazia de uma maneira visceral. Como partiu para a área de linguística? A música passou ao mesmo tempo a ser matéria de reflexão e composição. Fui fazer linguística em 1973. Na época era possível fazer dois cursos simultaneamente na USP. Eu me encaminhei para a ideia de criar um modelo para a canção e precisava distinguir o objeto-canção da música. Via que eram coisas muito diferentes e me perguntava por que todo cancionista que eu conhecia e de que eu gostava não sabia música. Isso precisava ser explicado. Canção não é música. Tenho 11 livros explicando isso. Sei que não é fácil entendê-los. Tem um fundo de semiótica, certa exigência que acaba afastando o leitor. Mas a questão é

difundir ou pelo menos tentar explicar por que existe a diferença entre canção e música, que em geral não se percebe, não só no Brasil como no mundo todo. Existem cursos de música popular, mas não de canção. Nem nos Estados Unidos, que têm uma canção importante, absolutamente original e forte. Quando você percebeu essa diferença? Foi em 1974, no começo do grupo Rumo, que aliás foi criado praticamente para explicar isso. No começo era uma banda meio estranha. Apresentava o show e depois discutia com a plateia. A grande preo­cupação inicial era teórica. Havia uma busca comum a todos os membros do grupo. Começamos a ensaiar e ao mesmo tempo estudar os grandes sambas da era do rádio, especificamente dos anos 1920 e 1930. Eu fui desenvolvendo a ideia de que aqueles sambistas provavelmente compunham a partir de outra coisa que pouco tinha a ver com teoria musical. A melodia saía da fala e depois eram dados os contornos. O grande trunfo seria emitir a melodia e depois estabilizar aquilo para ser repetido sempre da mesma maneira. É esse o desafio do cancionista. Ele afinava um pouco as notas e levava para o cantor, que entregava para o maes­tro, que colocava na partitura, já corrigindo alguma coisa, e então se fazia o arranjo para a orquestra. Eles tinham a habilidade de transformar a modulação da

fala em melodia cancional. Quase não dispunham de recursos musicais. Isso valia para Noel Rosa, Ismael Silva, Assis Valente, João de Barro, Lamartine Babo e Cartola, e, depois, também Caetano Veloso, Gilberto Gil, Paulinho da Viola etc. Por que a pesquisa foi buscar os primeiros sambistas? Procuramos a origem para descobrir o “segredo” da canção. Foi nesse período que surgiu a canção moderna, ligada à gravação e ao rádio, simultaneamente com os Estados Unidos. No passado o que havia eram brincadeiras de rua: ficava-se repetindo um tema. Ainda não havia canção como se conhece, com primeira e segunda parte, voltando em seguida. A organização do formato só aconteceu com o disco, para fixar na memória, uma vez que os compositores não utilizavam partitura. Era esse formato que a gente queria entender. Nós fizemos nessa época uma pesquisa imensa com colecionadores. Foi o que deu origem ao disco Rumo aos antigos, que saiu ao mesmo tempo que o disco de estreia com canções originais, que chamava apenas Rumo, de 1981. Mas o insight veio mesmo com uma música do repertório de Germano Mathias, Minha nega na janela, na gravação do Gilberto Gil. Eu quase enxergava o compositor fazendo a canção a partir de uma fala. Concluí que os autores não têm consPESQUISA FAPESP 246 | 27


Tatit em carreira solo com a convidada Ná Ozzetti, ex-companheira do Grupo Rumo

Na época das vacas magras, o Rumo não garantia algum sustento? Nós já estávamos quase no fim da carreira, só faltava o último disco, que saiu em 1992. Mas nunca resultou em nada financeiramente. Nós éramos 10 pessoas. Se ganhávamos alguma coisa, era sobra de bilheteria. E nos teatros em que a gente se apresentava, como o Lira Paulistana, cabiam no máximo 200 pessoas. Não se falava em dinheiro. O Rumo só durou tanto porque todos faziam outra coisa.

Como o estudo da linguística o ajudou nessa pesquisa? Não havia ninguém que escrevesse sobre isso. Como o curso de música não tinha resolvido o tema da canção, decidi procurar em outro lugar. De início, fui às aulas de literatura, que tinham os melhores professores na época. O curso do Davi Arrigucci Júnior, por exemplo, me empolgou. Mas continuava não resolvendo a questão. Aí achei o curso de semiótica. Meu interesse foi pela própria disciplina, que me seduziu porque eu percebi que servia para todas as linguagens ou manifestações narrativas. Eu vi que, em termos de continuidade de estudo, era ali que estava a saída. Quando decidiu ser professor? Achei que a pós-graduação poderia me interessar porque eu gosto de pesquisa e tinha uma ideia para levar adiante. Comecei a fazer mestrado enquanto dava 28 | agosto DE 2016

aula de violão para sobreviver, umas 40 por semana. Nessa época a dissertação de mestrado tinha a mesma importância e dava o mesmo trabalho que o doutorado. Quando cheguei ao doutorado, soube que podia pedir uma bolsa – ninguém tinha me dado essa informação. Quando terminei, em 1986, percebi que não tinha profissão rentável e em 1987 passei um ano terrível. Os problemas financeiros só foram resolvidos porque passei a fazer jingles com o pessoal do Rumo. No ano seguinte, entrei para o corpo docente, e isso me facilitou tremendamente a vida. Minha profissão estava definida. Em todas as minhas pesquisas, a questão era semiótica e a aplicação era a canção. Na época ganhei uma bolsa da Fundação Vitae, que hoje não existe mais. Foi o que resultou no livro O cancionista. Era uma bolsa muito boa, quase o dobro do salário da USP. Os termos cancionismo e cancionista surgiram aí? Eu já havia utilizado antes, em 1983, num artigo para a Folha de S.Paulo. Nesse livro, fiz um esforço tremendo para escrever algo mais legível do que os livros de perfil acadêmico. Embora seja uma disciplina muito importante para mim, sei que a semiótica é quase ilegível. No decorrer da escrita desse livro, me ocorreu estender o conceito a todas as pessoas ligadas à canção – o cantor, o instrumentista, até o ouvinte. O título ficou O cancionista – Composição de canções no Brasil.

Como se desenvolveu a musicalidade do Rumo, considerada original pelos críticos? No início a banda tinha o nome Rumo de Música Popular. Começou mais como uma proposta teórica do que uma banda de música. O interesse de pesquisa era principalmente meu, mas acabou influenciando o pessoal no sentido de defender uma ideia. O desafio era conseguir arranjar a musicalidade das canções, que eram feitas a partir de entoação. Os instrumentos não podiam burlar aquelas inflexões que vinham da fala. Por isso as músicas tinham uma entoação explícita, todos diziam que era “canto falado”. Era exatamente essa a proposta: mostrar a origem da canção em cada composição. Às vezes até saía uma coisa mais legal, mas em geral as canções eram duras, ásperas, didáticas. Às vezes ficavam um pouco instrutivas demais, mas depois do primeiro disco passamos a dominar a nova técnica e tudo se suavizou. Houve três ou quatro anos de certa efervescência. Quando e como foi a decisão de acabar? Não conseguíamos mais nos encontrar para ensaiar e fazer temporadas. Eu já estava na USP, e todos os outros tinham seus projetos pessoais. Não havia como viajar. Dissemos: “Vamos parar, já que até aqui viemos bem”. Fizemos um show em 1992, lançando um disco novo, com canções inéditas, que se chamava Rumo ao vivo. Voltamos em 2000, por saudade de fazer show, e fizemos uma apresen-

arquivo pessoal

ciência disso, porque não é papel deles refletir sobre a linguagem da canção. Parece com a nossa consciência da gramática da língua. Falamos e escrevemos português, mas ninguém tem consciência de onde está o predicado, o complemento nominal etc. A gramática é algo intrínseco a todas as linguagens. Só os gramáticos a explicitam. Estudar a linguagem é estudar a gramática interna – da música, do teatro, da televisão, de tudo. Naquele momento eu estava tentando explicitar a gramática da canção.


tação em 2004. Fechamos bem o ciclo, e convertemos todos os discos em vinil para CD. Só o último disco, de 1992, tinha sido lançado diretamente em CD.

Meu modelo aplicado à canção é único por enquanto, mas há muitos orientandos que o aproveitam em seus trabalhos e hoje estão espalhados pelo Brasil

Vocês participaram da época mais agitada da casa de shows Lira Paulistana. Eram chamados de “vanguarda paulista”. Esse rótulo veio da imprensa. Não fomos nós que inventamos. Nossos estilos eram completamente diferentes: o Rumo era uma coisa, o Arrigo Barnabé era outra, o Premê [grupo Premeditando o Breque], outra ainda. Tínhamos em comum o Lira Paulistana, que dava espaço para todos. Acabamos aceitando o rótulo porque todos tinham interesse em mostrar uma nova forma de compor. Nós nunca compusemos para o mercado, não por desprezo, mas porque não sabíamos fazer assim. Só muitos anos depois, a partir de 2011, gravei um disco com o Arrigo, exatamente quando fizemos 60 anos. Com o Itamar Assumpção, fizemos algumas parcerias no finalzinho da vida dele. Ele me telefonava, passava as letras e eu fazia as melodias – mas ele já estava muito doente, nem comentou as últimas melodias que eu fiz. Você segue principalmente as ideias do linguista Algirdas Julien Greimas. É possível explicá-las em linhas gerais e poucas palavras? Greimas, embora nascido na Lituânia, é o criador da semiótica francesa, com um projeto que vem do linguista suíço Ferdinand de Saussure [1857-1913]. Ele apareceu em 1966 com o livro Semântica estrutural, que propôs um modelo geral para descrever o sentido. A ideia vem da teoria narrativa do folclorista russo Vladimir Propp, que analisou algumas dezenas de contos tradicionais, defendendo a ideia de que cada um deles é uma espécie de arquétipo recorrente de construção do sentido – ou seja, a estrutura é a mesma. Greimas levou isso mais longe. Para ele, a estrutura é a mesma em todos os textos e até no pensamento científico. E como você chegou à aplicação específica para as canções? No final dos anos 1980, apareceu um outro autor, o francês Claude Zilberberg, com a semiótica tensiva, que discorda da interpretação, então predominante, de que Saussure tratava de estruturas

estáticas. Zilberberg incluiu aspectos dinâmicos e temporais da fala no cerne do modelo semiótico, como as inflexões de andamento e tonicidade. Essas noções me permitiram pensar em categorias gerais que pudessem sustentar ao mesmo tempo os processos linguísticos e melódicos. Era o que faltava para uma apresentação coerente dos mecanismos que provocam os efeitos de compatibilidade entre melodia e letra depreendidos da superfície das canções. A minha livre-docência é inteira sobre esse autor. O modelo semiótico que você desenvolveu tem continuidade? Espero que sim. Observo que meu modelo aplicado à canção é único por enquanto, mas há muitos orientandos que o aproveitaram para seus trabalhos e agora estão em outras faculdades pelo Brasil. O processo é lento, mas está acontecendo. Virou um projeto de vida para mim. Não dá para fazer semiótica se não for um projeto de vida. É difícil, mas, ao mesmo tempo, quando se domina, fica-se querendo aplicar. Quais são as grandes mudanças que você observou desde seus primeiros dias na carreira acadêmica? Eu ainda peguei uma fase na USP, sobretudo no final dos anos 1980, em que a visão da carreira era bem diferente. Os professores da área de humanidades normalmente dirigiam suas ideias para produzir livros, que às vezes demoravam 10 anos para serem escritos. Eu ainda sou um pouco assim, e me sinto desadaptado aos dias de hoje. Tudo o que interessa do que eu produzi está em livro. A prática atual é escrever pequenos artigos para publicar, de preferência, em revistas internacionais, seguindo o modelo norte-americano. Quem não fizer isso não ganha pontos suficientes sequer para fazer um curso de pós-graduação. Sob pretexto de internacionalizar a universidade, tornou-se dominante uma prática que só faz sentido nas áreas de exatas e biológicas, para mostrar que a pesquisa tem interesse mundial, às vezes, em textos escritos diretamente em inglês técnico. Mas em ciências humanas o interesse normalmente é local. Estuda-se uma comunidade próxima ou o nosso idioma, por exemplo. A semiótica explica bem isso: há certas coisas que você só alcança na sua língua. n PESQUISA FAPESP 246 | 29


política c&T  Empreendedorismo y

Terrenos férteis para a inovação Estudo analisa distribuição de projetos de pequenas empresas de base tecnológica paulistas e aponta São Carlos como o polo mais denso Bruno de Pierro

A

formação de polos de inovação no estado de São Paulo é influenciada por alguns fatores peculiares e nem sempre segue a dinâmica observada em outros países. Essa é uma das conclusões de um estudo feito por pesquisadores da Universidade Estadual de Campinas (Unicamp) e da Universidade George Washington, nos Estados Unidos, que analisou a prevalência em diferentes regiões do estado do chamado empreendedorismo intensivo em conhecimento (KIE, na sigla em inglês). Trata-se da concentração de empresas jovens e inovadoras que utilizam novas tecnologias geradas por universidades e por elas próprias e conseguem tirar partido de oportunidades de negócio em setores diversos. Os pesquisadores utilizaram dados do programa Pesquisa Inovativa em Pequenas Empresas (Pipe) da FAPESP, que desde 1997 apoia a execução de pesquisa científica e tecnológica em micros, pequenas e médias empresas em municípios paulistas. De acordo com os autores, trata-se de um indicador confiável, ainda que restrito, da localização de inovação empresarial no estado. Foram analisados 1.130 projetos Pipe distribuídos em 114 cidades que tiveram pelo menos um projeto concedido entre 1998 e 2014. Cinco delas se destacaram pela alta con-

30  z  agosto DE 2016


Empresas baseadas em conhecimento Número total e proporção por 100 mil habitantes de projetos do programa Pesquisa Inovativa em Pequenas Empresas (Pipe), da FAPESP, em cinco municípios paulistas entre 1998 e 2014

298 n Número de projetos por 100 mil habitantes n Número total de projetos

199,43

197

177

72 55 43,67 28,72

23,12

6,27

infográfico  ana paula campos ilustraçãO fabio otubo

são paulo

Fonte  dados pipe-fapesp

São Carlos

campinas

São josé dos campos

ribeirão preto

As áreas com cores mais quentes no gráfico indicam as regiões com maior concentração de projetos Pipe em números absolutos

centração de projetos: São Paulo (298 projetos), Campinas (197), São Carlos (177), São José dos Campos (72) e Ribeirão Preto (55). Observou-se que, embora a capital paulista abrigue a maior quantidade de projetos, em termos relativos é São Carlos que tem mais destaque, com 199 projetos Pipe por grupo de 100 mil habitantes (ver gráfico). Uma contribuição original do estudo foi indicar que, em contraste com o que indica a literatura sobre a formação de clusters de inovação em países desenvolvidos, a existência de grandes aglomerados urbanos no estado de São Paulo não produziu automaticamente uma concentração de empreendimentos intensivos em conhecimento. A hipótese dos autores é que, em países em desenvolvimento, certas desvantagens de ordem econômica das grandes metrópoles levam parte das empresas para outras regiões. Os pesquisadores cruzaram informações sobre a concentração de projetos Pipe com dados socioeconômicos dos municípios fornecidos pelo Sistema Estadual de Análise de Dados (Seade). Constataram, por exemplo, que indicadores de mobilidade, como o número de habitantes por automóvel, e de demografia, como a densidade populacional, exercem impacto negativo sobre a localização de projetos Pipe. Já outros indicadores analisados, como a criminalidade, parecem não ter influência. “O trânsito excessivo das grandes cidades atrapalha a logística, eleva os custos da inovação e pode ser apontado como uma das causas do processo de desindustrialização da capital paulista nas últimas décadas”, explica Bruno Brandão Fischer, professor da Faculdade de Ciências Aplicadas da Unicamp, campus de Limeira, e autor principal do estudo, que foi apresentado na Atlanta Conference on Science and Innovation Policy, nos Estados Unidos, no ano passado. No entanto, uma relativa proximidade das pequenas empresas de base tecnológica com grandes centros urbanos mostrou-se um fator decisivo no surgimento de polos de inovação. “São nos centros econômicos que se localizam potenciais clientes e usuários de serviços tecnológicos”, afirma Sérgio Robles Reis de Queiroz, professor do Departamento de Política Científica e Tecnológica do Instituto de Geociências da Unicamp, também autor do artigo. “Para quem faz pesquisa empresarial no estado de São Paulo é bom estar perto da capital e do conhecimento produzido ali, mas não necessariamente dentro dela”, explica Queiroz, que é coordenador-adjunto da área de Pesquisa para Inovação da FAPESP. O trabalho não se debruça sobre as razões que colocam São Carlos em destaque, mas traz algumas hipóteses relativas às condições locais que favoreceriam a concentração de projetos Pipe na cidade. “Estamos iniciando um estudo sobre São Carlos e já é possível afirmar que a infraestrutupESQUISA FAPESP 246  z  31


32  z  agosto DE 2016

ra local de pesquisa, que inclui a Universidade Federal de São Carlos [UFSCar], um campus da Universidade de São Paulo [USP] e empresas como a Embrapa, exerce um papel fundamental”, informa Fischer. O município tem uma alta concentração de doutores. Um estudo feito em meados dos anos 2000 por Jorge Oishi, estatístico e professor aposentado da UFSCar, mostrou que a cidade reunia na época 1,7 mil doutores, numa população de cerca de 230 mil habitantes. Ali também foi criada uma das primeiras incubadoras de empresas de base tecnológica do Brasil, na Fundação Parque de Alta Tecnologia (ParqTec), em 1985, localizado bem próximo dos campi da UFSCar e da USP. Segundo o estudo, outros fatores com impacto na concentração de projetos Pipe no município estão relacionados à mobilidade urbana e ao custo de vida mais baixo. São Carlos fica a 230 quilômetros da capital paulista e o percurso rodoviário se cumpre em pouco mais de duas horas. Marco Antonio Pereira, sócio da Itera, empresa instalada em São Carlos desde 2008 e especializada em soluções tecnológicas na gestão de documentos eletrônicos, costuma ir a São Paulo todas as semanas. “É onde estão nossos principais clientes”, conta. A decisão de se fixar em São Carlos teve a ver com o ambiente científico da cidade. “A empresa está localizada a poucos minutos de departamentos de ciência da computação da USP e da UFSCar, com quem trabalhamos com frequência”, explica Pereira, que é mestre em ciência da computação pela UFSCar. Em 2015, a companhia recebeu apoio do Pipe para desenvolver um software que extrai os principais conceitos e palavras de grandes volumes

Perfis distintos

Os resultados do estudo suscitam um debate sobre as razões que levam cidades como São Carlos e Campinas, ambas com notória vocação para a inovação, a apresentarem perfis diferentes na concentração de projetos desenvolvidos por pequenas empresas. Embora, em números absolutos, o desempenho seja semelhante, em termos relativos a diferença é grande: São Carlos contabiliza 199 projetos Pipe por 100 mil habitantes, enquanto Campinas, com uma população quatro vezes maior, tem 43 projetos Pipe por 100 mil habitantes. Para o economista Marcelo Silva Pinho, professor da UFSCar, uma explicação é que as duas cidades têm sistemas de inovação local bem diferentes. De acordo com ele, a maioria das startups estabelecidas em São Carlos nasceu de projetos desenvolvidos dentro das universidades instaladas na cidade. “Em São Carlos, muitas empresas são o desdobramento de iniciativas individuais de pesquisadores e professores. Já em Campinas, com um ambiente industrial mais complexo, várias empresas de base tecnológica nascem de outras empresas”, explica Pinho. Tais características podem exercer influência na concentração de projetos Pipe. Segundo ele,

fotos  eduardo cesar  ilustração fabio otubo

O Laboratório Nacional de Luz Síncrotron, em Campinas (acima), e pesquisa em terapia fotodinâmica no Instituto de Física de São Carlos da USP (ao lado): as duas cidades têm sistemas de inovação distintos

de documentos e ajuda a organizá-los, e conseguiu a parceria do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP. “O instituto está conectado a redes internacionais. A aproximação com o ICMC é uma forma de mantermos a empresa sintonizada com o conhecimento em nível global.” O fenômeno se observa em outras cidades, e com argumentos semelhantes. “Estamos em São José dos Campos, a apenas 100 quilômetros de São Paulo. A distância curta nos permite impulsionar novos negócios na capital, sem precisarmos arcar, por exemplo, com os custos elevados de um aluguel lá”, explica a engenheira Renata de Cássia Ferreira Silva, sócia da RVT, empresa dedicada à gestão do consumo de energia elétrica. Em 2015, a companhia recebeu auxílio do Pipe para desenvolver um simulador capaz de estimar a redução do consumo de energia elétrica de equipamentos de refrigeração industrial. Nas pesquisas que realiza, a empresa mantém parcerias com a Faculdade de Engenharia Química da Unicamp e com o Parque Tecnológico de São José dos Campos, que interage com empresas como Embraer, Vale, Ericsson e Sabesp.


uma hipótese é que empreendedores com perfil acadêmico tenham mais familiaridade com os trâmites necessários para elaborar projetos e participar de editais, enquanto empresários com experiência na indústria recorrem a outros expedientes para se financiar. As diferenças entre os sistemas de inovação em São Carlos e Campinas também podem ser observadas na forma como as empresas se relacionam com o conhecimento local, sugere Gustavo Benevides, professor da Escola Superior de Administração, Marketing e Comunicação de Campinas (Esamc) e autor de artigos sobre a formação de polos tecnológicos no interior paulista. “Em Campinas, observo que as empresas interagem bastante com centros de excelência, como o Centro Nacional de Pesquisa em Energia e Materiais [CNPEM], o Centro de Pesquisas Renato Archer, o Núcleo de Inovação Tecnológica Mantiqueira e o Instituto Eldorado, às vezes até mais do que com a Unicamp”, apon“Para empresas ta Benevides. Segundo ele, essa que fazem dinâmica reflete um sistema de inovação cujos atores interagem pesquisa, é bom pontualmente e de maneira mais dispersa. “Em Campinas, os instiestar perto da tutos de pesquisa não conversam muito entre si e atuam de forma capital, mas não mais independente, estabelecennecessariamente do mais contato com o mercado. E as empresas, quando precisam dentro dela”, diz de soluções rápidas e urgentes, procuram esses institutos.” Sérgio Queiroz Já em São Carlos, a relação está mais próxima das universidades, na visão do pesquisador. “Lá, há três parques tecnológicos interligados com a UFSCar e a USP. Isso permite que a interação entre universidades e empresas seja mais pulsante em São Carlos”, avalia. Para Sérgio Queiroz, ainda faltam estudos capazes de mostrar, com dados concretos, quais fatores diferenciam os sistemas de inovação nas duas cidades. “Nossa pesquisa não se propôs a responder a essa dúvida”, ressalta. Formação de clusters

Em países desenvolvidos, é comum que grandes aglomerados urbanos abriguem boas universidades e atraiam para o seu entorno empreendimentos intensivos em conhecimento. “É importante que as empresas e startups se fixem em cidades onde seja fácil acionar grupos de pesquisa em universidades, como forma de encontrar solução para seus problemas tecnológicos”, esclarece Renato de Castro Garcia, professor do Instituto de Economia da Unicamp. Na sua avaliação, a concentração de conhecimento nas universidades é um dos principais fatores que levaram

certas localidades a se consolidarem como polos de inovação. No Vale do Silício, na Califórnia, por exemplo, as vantagens de estar próximo do fluxo de informações das empresas de tecnologia, da força de trabalho capacitada, da infraestrutura de pesquisa e de prestadores de serviços e de grandes investidores superam os custos elevados da região, observa AnnaLee Saxenian, professora da Universidade da Califórnia em Berkeley, pesquisadora da área de geografia da inovação. “Apesar de haver congestionamento de tráfego e um custo de vida elevado, continuam surgindo startups inovadoras no Vale do Silício”, afirma a pesquisadora, que participou de um workshop sobre inovação na sede da FAPESP em junho. O sucesso dos clusters também depende de outros fatores. “Para ter êxito numa economia globalizada, as cidades precisam estar conectadas a redes globais de conhecimento, por meio de intercâmbios entre pesquisadores”, observa Nicholas Vonortas, professor da Universidade George Washington e também autor do estudo. O pesquisador coordena até 2019 um projeto sobre sistemas de inovação na Unicamp no âmbito do programa São Paulo Excellence Chairs (Spec) da FAPESP. Para Sérgio Queiroz, da Unicamp, o estudo ajuda a identificar onde estão localizadas, no mapa do estado de São Paulo, as cidades em que o solo é mais fértil para a inovação. “São as cidades onde os investimentos voltados para a pesquisa empresarial têm mais chances de dar retorno”, conclui. n Projeto Sistemas de inovação, estratégias e políticas (nº 2013/50524-6); Modalidade Programa São Paulo Excellence Chairs (SPEC); Pesquisador responsável Nicholas Spyridon Vonortas (Instituto de Geociências-Unicamp); Investimento R$ 992.533,20 (para todo o projeto).

pESQUISA FAPESP 246  z  33


PROPRIEDADE INTELECTUAL y

Vitrine de novas tecnologias Patentes resultantes de projetos de pesquisa financiados pela FAPESP são reunidas em nova página da Biblioteca Virtual da Fundação Carlos Fioravanti

A

s patentes resultantes dos projetos de pesquisa financiados pela FAPESP ganharam um novo espaço de acesso público: a página de propriedade intelectual da Biblioteca Virtual (BV) da FAPESP, que entrou no ar no início de agosto (www. bv.fapesp.br/pt/papi-nuplitec). Criado com o propósito de ampliar o impacto científico e econômico das pesquisas feitas em universidades, institutos de pesquisa e empresas, o banco de patentes reunia 913 itens no final de julho: 749 solicitações de patentes encaminhadas ao Instituto Nacional de Propriedade Industrial (INPI), órgão do governo federal responsável pela análise e concessão de marcas e patentes no Brasil; 97 patentes encerradas, rejeitadas ou abandonadas; e 67 patentes concedidas. Do total, 21 solicitações estão em análise ou já foram aprovadas no United States Patent and Trademark Office (USPTO), o escritório de marcas e patentes dos Estados Unidos. “Esta é uma vitrine para divulgar os resultados das pesquisas apoiadas pela FAPESP”, afirma a advogada Patrícia Pereira Tedeschi, assessora técnica da 34  z  agosto DE 2016

Diretoria Científica da FAPESP. Ela começou a montar o banco em 2010 com informações das bases on-line do INPI, do USPTO e dos relatórios dos projetos de pesquisas apoiados pela FAPESP. Patrícia prevê que a base de dados crescerá rapidamente, à medida que os pesquisadores informarem as patentes resultantes de seus projetos que não foram localizadas no levantamento inicial. A patente assegura o direito de exclusividade na exploração comercial de uma invenção. Como explicado na página da BV, a “garantia de propriedade intelectual é o primeiro passo para assegurar que o investimento em pesquisa se transforme em novos produtos e processos”. A etapa seguinte é a identificação de uma instituição ou empresa capaz de transformar a invenção em produto comercial e gerar retorno econômico aos inventores e titulares da patente. O ciclo da descoberta em uma universidade ou em um instituto de pesquisa até um produto que atenda de fato a necessidades de um mercado consumidor já foi completado algumas vezes. Em 2003, o físico Vladimir Jesus Trava Airoldi, pes-

quisador do Instituto Nacional de Pesquisas Espaciais (Inpe) e fundador da Clorovale Diamantes, de São José dos Campos, entregou à FAPESP um cheque de R$ 4.150,45, marcando o primeiro retorno, na forma de royalties, de uma patente financiada pela Fundação. A partir de trabalhos realizados em centros públicos de pesquisa, a Clorovale havia desenvolvido e começava a produzir brocas odontológicas com ponta de diamante artificial para tratamentos dentários (ver Pesquisa FAPESP nº 87). De 2003 para 2015, a exploração de patentes cresceu e em 2015 rendeu cerca de R$ 130 mil à Fundação, que recebe uma remuneração variável, de acordo com o investimento realizado e a modalidade de projeto de pesquisa financiado, até o limite máximo de 33% do lucro sobre as vendas ou sobre os valores recebidos pelas instituições que possuem Núcleo de Inovação. No banco de patentes da BV a FAPESP detém a titularidade de 49 registros de patentes, dos quais 34 já encerrados, 12 em análise e 3 vigentes. E é a primeira depositante (autora dos pedidos), com 388 pedidos, seguida pela Universidade


As patentes da FAPESP Os 913 registros de patentes depositados desde 1990 com titularidade ou cotitularidade da Fundação, organizados de acordo com as categorias da Classificação Internacional de Patentes (IPC) Seção A - Necessidades humanas Seção B - Operações de processamento; transporte Seção C - Química; metalurgia

350 107 449

Seção D - Têxteis; papel

7

Seção E - Construções fixas

8

Seção F - Engenharia mecânica; iluminação; aquecimento; armas; explosão 13 Seção G - Física Seção H - Eletricidade

189 68

Obs.: Um mesmo registro de patente pode entrar em mais de uma categoria. Fonte BV-FAPESP Veja a tabela completa em bv.fapesp.br/37699

fotos  wikipedia, eduardo cesar e léo ramos

Banco reúne registros de 35 universidades de sete estados e cinco países, 27 empresas e 23 institutos

de São Paulo (USP), com 335 e Universidade Estadual de Campinas (Unicamp), com 317. Na maioria dos casos a FAPESP é cotitular, ao lado de 35 universidades, incluindo as de outros seis estados (Rio de Janeiro, Minas Gerais, Goiás, Pernambuco, Rio Grande do Norte e Paraná), além do Distrito Federal, e de outros quatro países (Estados Unidos, Suíça, Itália e Polônia), refletindo a colaboração entre especialistas de instituições diferentes, além do estado de São Paulo. Na base estão também os registros de 27 empresas, 23 institutos de pesquisa, 22 pesquisadores individuais e 8 fundações. O novo banco de patentes complementa as bases equivalentes de universidades e institutos de pesquisa e permite a pesquisa de várias formas, incluindo o acesso rápido às páginas do INPI com uma descrição detalhada da patente e de seu histórico. O banco de patentes é uma iniciativa do Núcleo de Patenteamento e Licenciamento de Tecnologia (Nuplitec) da FAPESP, criado em 2000, quatro anos

depois da aprovação da atual Lei de Patentes, com a finalidade de apoiar a proteção da propriedade intelectual e o licenciamento dos direitos sobre os resultados de pesquisas financiadas pela FAPESP. Até aquela época, lembra Patrícia, a maioria das universidades não tinha orçamento, equipes e procedimentos estabelecidos para atuar nessa área de modo adequado. A situação mudou em 2004, com a aprovação da Lei de Inovação, que obrigou os centros de pesquisa a constituir seus núcleos de inovação tecnológica e a cuidar de suas possíveis patentes. Em 2011 a FAPESP fez uma revisão em sua política de apoio à propriedade intelectual, passando a evitar a titularidade, mas mantendo o potencial para receber benef​íc​ ios gerados pelas patentes resultantes de aux​ílios e bolsas financiados pela F ​ ​undação. Dessa forma a negociação de licenciamentos, feita pela instituição que sediou a pesquisa, torna-se mais ​á​gil. Hoje, a Fundação atua nessa área por meio de três modalidades do Programa de Apoio à Propriedade Intelectual (Papi). A primeira e a segunda apoiam a proteção da propriedade intelectual resultante de projetos FAPESP solicitada por pesquisadores individuais, com o apoio de suas instituições, ou pelo núcleo de inovação das instituições. A terceira financia estágios no exterior das equipes dos núcleos de inovação tecnológica, com o propósito de aprimorar suas práticas de trabalho. A política de propriedade intelectual da FAPESP pode ser encontrada na página principal do Papi (www.fapesp.br/3740). n pESQUISA FAPESP 246  z  35


Comunidade científica y 1

50 anos esta noite U

m grupo de antigos alunos e alguns professores aposentados da Universidade de Buenos Aires (UBA) foi homenageado, no último dia 29 de julho, em um complexo de prédios históricos da capital argentina onde funcionava até 1971 a Faculdade de Ciências Exatas e Naturais da instituição. Ali, exatos 50 anos antes, os homenageados envolveram-se em uma jornada violenta que é apontada como um ponto de inflexão para a ciência do país, deflagrando a saída de levas de pesquisadores argentinos para o exterior. O 29 de julho de 1966 ficou conhecido como a Noche de los Bastones Largos, quando cinco faculdades da UBA foram tomadas por tropas da Polícia Federal argentina. Munidos de cassetetes compridos (os bastones largos) e bombas de gás lacri36  z  agosto DE 2016

mogêneo, os policiais prenderam 400 estudantes e professores que ocupavam desde a manhã os prédios em protesto contra um decreto que suprimia a autonomia das universidades públicas e a forma de administração compartilhada por professores, alunos e ex-alunos. A violência foi um desdobramento de um golpe militar liderado pelo general Juan Carlos Onganía que derrubara um mês antes o presidente civil Arturo Illia. A imagem de alunos e professores rendidos e ensanguentados depois de passarem por um corredor polonês de policiais tornou-se simbólica. “Aquela noite obscureceu não apenas a universidade, mas também um projeto de desenvolvimento do país”, discursou o atual reitor da UBA, Alberto Barbieri, para os homenageados. Após a ação policial – que não poupou dos

cassetetes nem o pesquisador do Massachusetts Institute of Technology (MIT) Warren Ambrose, que visitava a UBA –, cerca de 1.400 docentes renunciaram a seus cargos em protesto e pelo menos 300 se exilaram. Metade foi trabalhar em universidades latino-americanas, principalmente no Chile, no México e na Venezuela. Quase uma centena mudou-se para os Estados Unidos e o Canadá e cerca de 40 foram para a Europa. Em alguns casos, grupos inteiros de pesquisa foram desarticulados, como o do Instituto de Cálculo de Ciências Exatas da UBA. Todos os seus 70 pesquisadores renunciaram e deixaram o país. Casos semelhantes ocorreram em institutos dedicados ao estudo de raios cósmicos e à psicologia evolutiva. Muitos dos cientistas que emigraram fizeram carreira no exterior,

fotos  1 e 2 ministério da educação da Argentina 3 Biblioteca Digital/Programa de História de la FCEN / Universidad de Buenos Aires  4 Archivo General de la Nación

Fabrício Marques


2

3

Noche de los Bastones Largos: policiais federais invadiram e prenderam 400 alunos e professores da Universidade de Buenos Aires (abaixo), deixando feridos como o matemático Juan Merlos (dir.). Ação deixou um rastro de destruição (esq.)

Invasão policial na Universidade de Buenos Aires em 1966 foi precursora da fuga de cérebros na Argentina

4

caso do historiador marxista Sergio Bagú, que morreu no México em 2002. Outros retornaram, como o matemático Manuel Sadosky (1914-2005), pioneiro da ciência da computação no país, que se tornou secretário de Ciência e Tecnologia em 1989, após a redemocratização. A partir de 1966, a Argentina se tornou conhecida como um país exportador de profissionais qualificados. Uma segunda grande onda de pesquisadores e jovens profissionais recém-graduados emigrou por razões políticas a partir de 1976, quando um novo golpe militar deu início a uma ditadura sangrenta que levou à morte ou ao desaparecimento de 30 mil pessoas – nessa fase, que durou até a redemocratização da Argentina em 1983, o Brasil recebeu vários pesquisadores argentinos. Em tempos recentes, a fuga de cérebros se deu por razões eminentemente econômicas, como após a profunda crise econômica que levou à renúncia do presidente Fernando de la Rúa em 2001. Um estudo feito pela Comissão Econômica para a América Latina e Caribe (Cepal), divulgado em 2006, mostrou que na virada para o século XXI a Argentina era o país da América espanhola que, proporcionalmente, mais fornecia mão-de-obra qualificada para o mercado de trabalho norte-americano, na forma de engenheiros, técnicos especializados e cientistas. A cada mil argentinos que haviam emigrado para os Estados Unidos, 191 eram altamente qualificados, ante 156 do Chile, 100 do Peru e 26 do México. pESQUISA FAPESP 246  z  37


1

O trauma da fuga de cérebros transformou a repatriação de pesquisadores em política de Estado nos últimos anos. Em 2008, uma lei federal criou o programa Rede de Pesquisadores e Cientistas da Argentina no Exterior (Raíces, em espanhol), que estabelece um fundo para pagar as passagens de volta de pesquisadores argentinos radicados no exterior e trabalha em conjunto com empresas na oferta de vagas para fixá-los no país. O Raíces conseguiu atrair de volta cerca de 1,2 mil pessoas, entre cientistas que haviam deixado a Argentina há muitos anos e ex-bolsistas de pós-graduação no exterior que queriam voltar, mas não encontravam emprego. O programa também estabeleceu vínculos com 5 mil cientistas argentinos residentes em vários países, financiando visitas à Argentina durante as quais colaboram com universidades e empresas. “O impacto da Noche de Los Bastones Largos foi enorme para um país que tinha grande tradição universitária e em pesquisa científica e sofreu com a expul-

são de núcleos científicos inteiros por ondas autoritárias”, observa o historiador José Alves de Freitas Neto, professor do Instituto de Filosofia e Ciências Humanas da Universidade Estadual de Campinas (IFCH-Unicamp), um estudioso da história da Argentina. A formação do sistema de ensino superior e de pesquisa na Argentina teve uma trajetória diferente da dos demais países da América Latina. Ainda na segunda metade do século XIX, dedicou-se a universalizar a educação básica e, no século XX, investiu pesadamente no acesso ao ensino superior. Ostentava em 2014 uma taxa bruta de escolarização superior de 54,5% – o indicador é a porcentagem de matrículas no ensino superior em relação à população de 18 a 24 anos de idade. No Brasil o índice era de 34% no mesmo ano. Todos os que concluem o ensino médio têm o direito de ingressar nas universidades públicas, embora uma parte deles deixe o curso ao final de um ciclo básico de estudos. Com mão de obra bem formada, o país obteve um sucesso

A repatriação de cientistas se tornou política de estado: 1,2 mil pesquisadores voltaram desde 2008

38  z  agosto DE 2016

singular no campo científico, simbolizado pela conquista de dois prêmios Nobel de Medicina e Fisiologia, com Bernardo Houssay, em 1947, e Cesar Milstein, em 1984, e um de Química, com Luis Federico Leloir, em 1970. A partir dos anos 1940, bons pesquisadores argentinos eventualmente eram atraídos por oportunidades de trabalho em outros países – o que não chegava a configurar uma fuga de cérebros. Um exemplo é o do neurofisiologista Miguel Covian (1913-1992), que formou um grupo de pesquisa na Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (FMRP-USP) a partir de 1955. Em 1961, Cesar Milstein transferiu-se para a Universidade de Cambridge e acabou se naturalizando inglês.

S

e a circulação internacional dos pesquisadores argentinos não era incomum, os efeitos da instabilidade política na universidade já eram frequentes. Autor do livro Vizinhos distantes: Universidade e ciência na Argentina e no Brasil (EdUERJ, 2000), o sociólogo argentino Hugo Lovisolo, professor da Universidade Estadual do Rio de Janeiro, observa que a perseguição política a professores tinha antecedentes. “O próprio Bernardo Houssay foi posto para fora”, afirma, referindo-se a um episódio de 1943, quando o fisiologista perdeu sua cátedra na UBA após um golpe militar que derrubou o presidente Ramon Castillo. Houssay retornou à UBA em 1955. Na primeira metade do século XX, as universidades argentinas se tornaram ambientes fervilhantes e politizados. O marco foi a Reforma Universitária de 1918, que serviria de inspiração para outros países do continente. A reforma seguiu-se a uma intensa mobilização estudantil na Universidade Nacional de Córdoba, que teve início em 1916 e conseguiu reformar o estatuto da instituição, ampliando a participação política dos alunos e reduzindo a influência dos jesuítas no comando da universidade. Em 1918, os estudantes rebelaram-se novamente, agora contra a escolha de um novo reitor ligado à Igreja Católica, feita por uma assembleia de docentes. O governo federal interveio, nomeou como reitor provisório o ministro da Justiça, José Salinas, e promoveu uma reforma baseada nas reivindicações dos estudantes, entre as quais autonomia política e

fotos 1 Archivo General de la Nación 2 galio / wiki media commons  3 Cristian O. Arone / wiki media commons

Estudantes tomam a Universidade de Córdoba em 1918: mobilização levou à reforma universitária


2

3

administrativa para as universidades; um regime de administração compartilhada que previa a eleição dos mandatários por representantes de professores, alunos e ex-alunos; a seleção de docentes por concurso; a gratuidade do ensino superior; e a liberdade para os alunos assistirem ou não às aulas. “O que aconteceu em 1966 foi um marco porque quebrou o pressuposto da Reforma de Córdoba”, diz o historiador Freitas, da Unicamp. O Brasil acolheu cientistas argentinos principalmente a partir dos anos 1970, época em que o governo militar buscava consolidar o sistema de pós-graduação voltado para a formação de pesquisadores criado em 1966. O neurocientista Ivan Izquierdo, da Pontifícia Universidade Católica do Rio Grande do Sul (PUC-RS), deixou a Argentina por motivos políticos em 1971 e se transferiu para o Brasil.

Após vários anos morando nos Estados Unidos, encontrou-se num congresso na França com o físico argentino Ivan Chambouleyron, também um exilado político, que formava um grupo de pesquisa em energia solar na Unicamp e o convidou a vir ao Brasil. “Montamos um grupo forte, que hoje se dedica ao desenvolvimento de materiais avançados e dispositivos para uso de microeletrônica e já formou cerca de 40 doutores”, diz Alvarez, que fez sua carreira no Brasil. “Continuei a colaborar com pesquisadores argentinos e ajudei a formar vários deles em meu laboratório.” Já Ivan Chambouleyron voltou para a Argentina depois Sede atual da Faculdade de Ciências Exatas e Naturais e de trabalhar três décadas no alunos da UBA: acesso amplo Brasil. “Hoje, após mais de 30 ao ensino superior anos em um país que me acolheu generosamente, considero que o Brasil é o meu lugar.” Outro exemplo é o de Luis Bahamondes, especialista em reprodução humana da Faculdade de Ciências Médicas (FCM-Unicamp). “Eu era estudante de medicina na Universidade Nacional de Córdoba em 1966 e lembro que entramos em greve contra o golpe militar. Acabamos perdendo o ano letivo”, conta. “Os militares diziam que a universidade era um antro de comunistas, mas a verdade é que o movimento estudantil tinha simpatizantes de várias correntes políticas.” Bahamondes participaria de outras duas revoltas contra os militares, em 1969 e 1971, que ficaram conhecidas como Cordobazo e Viborazo. Graduado em 1971, deixou o país dois Unicamp contratou dezenas de pesquisadores argentinos. O fí- anos mais tarde para trabalhar no Urusico portenho de nascimento e guai. Depois passou uma temporada no criado na cidade de Mendoza Fernando México e veio para o Brasil com um conAlvarez, professor do Instituto de Físi- vite para trabalhar numa clínica particuca Gleb Wataghin da Unicamp, deixou lar em 1977, mas não se adaptou ao emBuenos Aires em 1976, um mês após o prego, e foi atraído para a Unicamp em golpe que destituiu a presidente Isabelita 1978. “O reitor da universidade na época, Perón, para fazer doutorado na Univer- Zeferino Vaz, recebia até professores essidade de Delaware, nos Estados Uni- trangeiros que ainda não tinham docudos. Ele trabalhava como pesquisador mentos para ficar no Brasil”, recorda-se. no Instituto de Tecnologia Industrial e “A ditadura brasileira não era tão burra foi demitido pelo interventor militar que quanto a argentina e conseguia entender assumiu o comando da instituição após que o desenvolvimento do país passava o golpe. Alvarez ainda tentou conven- pelas universidades públicas.” Voltou cer o irmão, um físico que trabalhava na para a Argentina em 1983, mas não se Comissão Nacional de Energia Atômica, satisfez com o ambiente de trabalho no e a cunhada, matemática, a deixarem o país e aceitou um convite para retornar à país, mas eles não quiseram. O casal foi Unicamp em 1988. “Hoje minhas raízes sequestrado e seus nomes integram a estão aqui. Tenho um filho, um genro e quatro netos brasileiros.” n lista de desaparecidos políticos.

A

pESQUISA FAPESP 246  z  39


ciência  GENÉTICA y

As cópias

que fazem as

diferenças Comparação do genoma de primatas reforça a influência das retrocópias na diversificação de espécies e de indivíduos Carlos Fioravanti

40  z  agosto DE 2016

foto  l_de_g / flickr  ilustração rcpedia

G

enes conhecidos como retrocópias, que geram cópias de si mesmos e se instalam em outros genes, devem ter contribuído para o surgimento de novas espécies de primatas, a partir de ancestrais comuns, e para a diferenciação entre os indivíduos de cada espécie. Resultado do trabalho de geneticistas do Brasil e dos Estados Unidos, que compararam o genoma de seis espécies de primatas, incluindo o do ser humano, a conclusão reforça o papel desse tipo de gene na adaptação e na evolução dos seres vivos. De modo mais amplo, as retrocópias deixam de ser vistas como exóticas ou inúteis, como até há poucos anos, e se mostram como um mecanismo relevante de renovação e de regulação do genoma, o conjunto de genes de um organismo. As dezenas ou centenas de cópias estabelecidas em vários cromossomos, as estruturas que abrigam os genes, agora são vistas como um possível mecanismo de segurança de informações essenciais à sobrevivência. “Algumas retrocópias são como fósseis gênicos, que podem conter trechos de DNA que, na época em que surgiram en-


genes em movimento

A figura acima relaciona os

da mesma cor. As cópias

pontos de origem e destino

– ou retrocópias – se

das 8 mil retrocópias nos

espalham e se instalam em

24 cromossomos humanos.

outros cromossomos, de

Cada linha colorida

cores diferentes. Abaixo,

representa um gene,

um sagui, uma das espécie​​s

copiado em seu

de primatas cujo genoma

cromossomo de origem,

foi examinado

tre os primatas, há cerca de 60 milhões de anos, eram ativos e hoje não são mais”, explica o cientista molecular Pedro Galante, coordenador do laboratório de bioinformática do Instituto de Ensino e Pesquisa do Hospital Sírio-Libanês, em São Paulo, que trabalha na formulação e na verificação de hipóteses sobre as possíveis origens e funções das retrocópias no genoma humano. As conclusões agora são debatidas de modo pacífico, como em um seminário internacional sobre genômica e câncer realizado em junho em São Paulo, mas nem sempre foi assim. Na década de 1940 a geneticista norte-americana Barbara McClintock causou alvoroço ao mostrar que elementos móveis do genoma então chamados genes saltadores, um conceito inconcebível na época, eram os responsáveis pela variação de cor nos grãos de milho. Ao compararem o genoma de primatas, Galante e Fábio Navarro, atualmente em pós-doutorado na Universidade Yale, Estados Unidos, verificaram que as retrocópias ocupam 45% do genoma de seres humanos, chimpanzés e gorilas. Em seguida, eles concluíram que cerca de metade desses elementos móveis encontrados nas seis espécies examinadas deve ter se originado nos primeiros tempos da evolução dos primatas, que começaram a formar espécies próprias há cerca de 90 milhões de anos. Galante e Navarro identificaram 154 retrocópias potencialmente funcionais e comuns entre as seis espécies, o que não surpreendeu, já que se trata de uma mesma linhagem evolutiva. Mais interessante foi ver as retrocópias únicas de cada espécie, embora suas funções ainda sejam pouco conhecidas. O ser humano tem 127 retrocópias únicas; o gorila, 215; o Rhesus, 1.623; e o sagui, 3.978, como detalhado em um artigo publicado em 2015 na Genome Biology and Evolution. Para que as informações fossem úteis também para outros pesquisadores, eles montaram a base on-line de acesso aberto RCPedia (bioinfo. mochsl.org.br/rcpedia), no ar desde 2013. Em 2014 uma equipe da Universidade Adam Mickiewicz, da Polônia, lançou a RetrogeneDB (retrogenedb.amu.edu.pl), uma base com informações sobre retrocópias de 62 espécies, incluindo insetos, aves e anfíbios. pESQUISA FAPESP 246  z  41


Antes como inócuas, as retrocópias podem intervir na formação da rede de neurônios e no comportamento

Gorila: 215 retrocópias únicas

Independentes dos pais

“As retrocópias representam um processo aleatório e individual de reformatação do genoma”, afirma Galante. Reforçando essa conclusão, em um artigo publicado em março deste ano na Genome Research, Francesco Carelli e outros pesquisadores da Universidade de Lausanne, na Suíça, argumentaram que as retrocópias, embora se expressem inicialmente nas células germinativas – espermatozoides e óvulos –, podem se instalar e se diversificar em células somáticas, que formam os tecidos dos seres vivos. Além disso, podem assumir novas funções, tão complexas quanto as dos genes parentais dos quais se originaram. Desse modo, argumentam os especialistas suíços, os genes parentais poderiam ser perdidos sem prejuízo para o organismo que formaram. As retrocópias são geradas diretamente a partir dos RNAs mensageiros copiados para uma versão equivalente de DNA, que podem se instalar em outros genes, induzindo a produção de proteínas diferentes das que eram produzidas antes de sua chegada. Os geneticistas reconhecem o gene intrometido porque, diferentemente de sua versão original e dos genes comuns, ele não contém trechos que não induzem a formação de proteínas, os chamados íntrons. As retrocópias eram conhecidas como pseudogenes exatamente porque não contêm íntrons e nem sempre ativam o processo de produção de proteínas que vão formar os seres vivos. Agora as retrocópias são vistas até mesmo como “essenciais para a continuidade de uma es-

foto  Petr Kratochvil / public domain  ilustraçãO RCPEDIA

O gene GAPDH, que participa do metabolismo de carboidrato: 50 retrocópias

Parte das diferenças entre os seres humanos agora é atribuída a esse mecanismo de reformulação do genoma. Em um trabalho publicado em 2013 na PLOS Genetics, equipes do Sírio-Libanês, da Universidade de Indiana, Estados Unidos, do A.C. Camargo Cancer Center e da Universidade Federal do Rio Grande do Norte compararam o genoma de 17 indivíduos escolhidos na base 1000 Genomes Project e concluíram que havia 91 retrocópias de 11 genes diferentes entre duas pessoas quaisquer, em média; o genoma de duas pessoas tem em média 105 genes diferentes. Em um estudo mais amplo, a equipe paulista analisou o genoma de 2.557 pessoas de 26 populações de várias partes do mundo e detectou variações também entre populações. Os habitantes do interior da África apresentaram retrocópias únicas, diferentes das vistas dos europeus.


O RPL21, o gene mais retrocopiado nos primatas: cerca de 200 cópias em cada espécie

O gene POLH, de reparo do DNA: apenas uma cópia. Mutações no gene original estão associadas ao xeroderma pigmentoso

pécie”, defende Galante. Como exemplo, ele cita o gene PTEN, que gera uma proteína capaz de deter o crescimento de tumores. A ação desse gene pode ser reduzida por meio de moléculas conhecidas como microRNAs, que aderem a ele e reduzem sua ação. O PTENP1, uma retrocópia do PTEN, capta parte dos microRNAs e, desse modo, o PTEN pode cumprir sua função de impedir o crescimento de células anormais. A equipe do Sírio-Libanês está trabalhando em um caso semelhante. “Descobrimos um gene relacionado à proliferação celular cuja retrocópia funciona do mesmo modo que o PTENP1, reforçando a hipótese de que as retrocópias constituem um mecanismo de regulação genômica”, diz ele. O efeito também pode ser o inverso. Em geral as retrocópias estão bloqueadas por meio de um mecanismo conhecido como metilação. Se perdem a trava e se tornam ativas, as retrocópias podem alterar o funcionamento dos genes em que se instalaram e causar mutações que poderiam favorecer o crescimento de células tumorais. A hipótese de funcionar como um sistema de segurança de informações relevantes ajuda a entender o aparente exagero de haver cerca de 200 cópias, espalhadas em todos os cromossomos, da retrocópia conhecida como RPL21, que forma os ribossomos, as estruturas responsáveis pela produção de proteínas essenciais a qualquer ser vivo.

Os representantes do grupo de retrocópias conhecido como Alu são cinco vezes menores que um gene comum, e abundantes, com 1 milhão de cópias no genoma, o equivalente a 11% do DNA humano. Inversamente, os representantes da família de retrocópias conhecida como LINE-1 são em média quatro vezes mais extensos que os genes comuns e ocupam cerca de 20% do genoma humano. São peculiares também porque conseguem agir de modo independente, sem precisarem de RNAs, por possuir dois trechos que permitem sua duplicação. Dois geneticistas brasileiros, Alysson Muotri, da Universidade da Califórnia em San Diego, e Maria Carolina Marchetto, do Instituto Salk, em La Jolla, ambas nos Estados Unidos, apresentaram em 2010 na Nature a proteína responsável pelo controle da atividade do LINE-1, bastante expresso em células-tronco e ligado à formação de neurônios e, quando desregulado, a distúrbios mentais como esquizofrenia e autismo. O trabalho continua. “Estamos criando modelos animais e humanos nos quais esses genes são silenciados ou superexpressos para ver como eles afetam as redes nervosas e o comportamento”, explica Muotri. De acordo com um estudo da Universidade de Utah, Estados Unidos, publicado em maio de 2016 na Mobile DNA, as 124 mutações no LINE-1 já identificadas poderiam resultar em doenças genéticas. Os especialistas nesse tipo de gene saltador aguardam com ansiedade a liberação dos dados de grandes projetos internacionais comparativos de genes expressos em vários tecidos – um deles com amostras de 450 pessoas, outro com 1.500 – na esperança de esclarecerem um pouco mais sobre os trechos do DNA antes vistos como parasitas ou inócuos. n

Projeto Retrocópias: origens, polimorfismos e variações somáticas (nº 2012/24731-1); Modalidade Jovens Pesquisadores em Centros Emergentes; Pesquisador responsável Pedro Alexandre Favoretto Galante (Instituto de Ensino e Pesquisa do Hospital Sírio-Libanês); Investimento R$ 843.619,40.

Artigos científicos CARELLI, F. N. et al. The life history of retrocopies illuminates the evolution of new mammalian genes. Genome Research. v. 26, n. 3, p. 301-14. 2016. NAVARRO, F. C. P. e GALANTE, P. A. F. A genome-wide landscape of retrocopies in primate genomes. Genome Biology and Evolution. v. 7, p. 2.265-75. 2015. ROBBIANI, F. D. et al. Plasmodium infection promotes genomic ins­ tability and AID-dependent B cell lymphoma. Cell. v. 162, n. 4, p. 727-7. 2015. SCHRIDER, D. R. et al. Gene copy-number polymorphism caused by re­ trotransposition in humans. PLoS Genetics. v. 9, n. 1, e1003242. 2013. MUOTRI, A. et al. L1 retrotransposition in neurons is modulated by MeCP2. Nature. v. 468, n. 7.322, p. 443–6. 2010.

pESQUISA FAPESP 246  z  43


SAÚDE y

A vez da chikungunya Altamente debilitante, infecção viral se espalha pelo país Ricardo Zorzetto

E

nquanto as atenções se voltavam para o vírus zika e sua ação devastadora sobre o cérebro dos bebês, outro agente infeccioso, causador de uma enfermidade bem mais dolorosa e debilitante para a maioria das pessoas, alastrava-se pelo país de maneira discreta. Em meados de 2014, duas variedades do vírus chikungunya alcançaram quase ao mesmo tempo duas regiões brasileiras: uma linhagem originária da África chegou no final de maio a Feira de Santana, na Bahia, e outra, proveniente da Ásia e associada à epidemia de chikungunya nas Américas, aportou no município de Oiapoque, no Amapá. Era o início de uma invasão lenta e gradual, que se acelerou muito neste ano (ver gráfico na página 47). Até dezembro de 2014, oito cidades, além de Brasília, registravam 3.657 casos suspeitos de febre chikungunya. De lá para cá, esse número se multiplicou e o problema avançou por todo o país. Em 2015 houve 38.332 prováveis casos, distribuídos por 696 municípios, e já começa a surgir o receio de que a infecção possa 44  z  agosto DE 2016

comprometer a capacidade de atendimento do sistema de saúde brasileiro. Só no primeiro semestre deste ano ocorreram 138 mil registros de chikungunya em 2.054 cidades. Em abril, os casos suspeitos dessa febre (64 mil) já superavam em 36% as infecções por zika no Nordeste. “Em abril estive no Hospital Giselda Trigueiro, em Natal, para conhecer melhor os sintomas da zika, mas só havia casos de chikungunya”, relata o infectologista Marcos Boulos, professor da Faculdade de Medicina da Universidade de São Paulo (FM-USP). Boulos, que atualmente chefia a Coordenadoria de Controle de Doenças da Secretaria de Estado da Saúde de São Paulo, naquela manhã, em pouco mais de uma hora e meia, testemunhou o atendimento de três pessoas com chikungunya. “Elas chegavam curvadas pelas dores articulares e tinham os dedos tão inchados que não conseguiam fechar as mãos”, conta o médico. A infecção por chikungunya lembra a causada pelo vírus da febre zika e pelo da dengue, razão pela qual o diagnóstico correto só é possível por meio de testes

O vírus da dor: cópias de chikungunya observadas ao miscroscópio eletrônico

moleculares (PCR) e imunológicos, que já existem, mas não estão disponíveis no sistema público de saúde. Transmitidas pela picada de mosquitos do gênero Aedes – em especial, o A. aegypti, abundante em todo o país –, as três enfermidades costumam causar febre, manchas vermelhas pelo corpo e dores de cabeça, além das musculares e articulares (ver Pesquisa FAPESP nº 239). Em geral são o inchaço das articulações e a intensidade das dores nas juntas, possivelmente associados à multiplicação do vírus, que fazem os médicos suspeitarem de chikungunya, palavra da língua makonde, falada por grupos da Tanzânia e de Moçambique, que significa “aqueles que se dobram”. É uma referência ao modo como as pessoas infectadas pelo vírus passam a caminhar: com o corpo encolhido e curvado para a frente, na tentativa de reduzir o desconforto. O primeiro surto confirmado dessa febre ocorreu na Tanzânia em 1952, embora exista a suspeita de que o vírus, que integra a família Togaviridae e o gênero Alphavirus, já circulasse pela África dois


foto  Cynthia Goldsmith / CDC  ilustração  baseada em henri matisse / jazz, 1947

séculos antes. Por muito tempo, a doença foi considerada um problema de saúde pública no Oriente, por permanecer restrita à parte leste do continente africano, ao Sudeste da Ásia e à região banhada pelo oceano Índico. Só nos últimos 10 anos, com a intensificação dos surtos naquela região e a chegada do vírus ao Caribe, a chikungunya tornou-se uma preocupação global. Já era tarde. Após a notificação dos primeiros casos transmitidos internamente na ilha de Saint Martin no final de 2013, a linhagem do vírus originária da Ásia espalhou-se rapidamente pelas Américas. Em pouco mais de um ano o vírus estava em 43 países e territórios do continente e havia infectado 1,4 milhão de pessoas. Foi essa variedade que entrou no Amapá, provavelmente via Guiana Francesa, e provocou casos em municípios da região Norte. Em maio de 2014, um brasileiro que veio de Angola para visitar a família na Bahia pode ter sido o responsável por introduzir no país a variedade do vírus que circula no leste da África e já se espalhou por boa parte do Brasil. Ele esteve em Feira de Santana, a segunda maior cidade do estado, e em 28 de maio procurou um pronto-socorro com febre alta e dores nas articulações. A suspeita inicial de dengue foi descartada por exames laboratoriais. Mais tarde análises genéticas feitas pela equipe do virologista Pedro Vasconcelos, do Instituto Evandro Chagas, no Pará, confirmaram que o problema havia sido causado pela variedade africana de chikungunya, distinta da que circulava no Amapá. Nas semanas seguintes à visita, vários familiares desse homem, picados por mosquitos infectados, apresentaram sinais de chikungunya, que se espalhou pela cidade. Desde o início do surto, pesquisadores da Fundação Oswaldo Cruz (Fiocruz) na Bahia e da Universidade Estadual de Feira de Santana, trabalhando com colegas da Universidade de Ox-


Vacinas protegem macacos contra o zika Três formulações candidatas a se

Larocca integra a equipe de

tornar vacina contra o vírus zika

Dan Barouch e, ao lado do colega

se mostraram eficazes e seguras em

Peter Abbink, é um dos principais

testes com macacos. Essa foi a

autores dos dois estudos.

segunda bateria de experimentos

Nos testes mais recentes, os

em animais à qual duas delas foram

pesquisadores vacinaram macacos

submetidas com sucesso. No final

rhesus, com dose única ou uma dose

de junho, pesquisadores brasileiros e

inicial seguida de reforço, usando uma

norte-americanos haviam relatado em

destas três formulações: a de vírus

um artigo publicado na revista Nature

inativado, a vacina de DNA ou uma

o efeito protetor em camundongos de

terceira possibilidade, uma formulação

duas classes de vacinas: um imunizante

que usa adenovírus recombinante para

produzido com o vírus inativado e

expressar os genes do zika. Todas elas

outro obtido a partir de dois genes do

se mostraram igualmente capazes de

zika, a chamada vacina de DNA

impedir a infecção posterior por zika.

(ver Pesquisa FAPESP nº 245). Agora,

A formulação de vírus inativado

o mesmo grupo apresentou na edição

gerou uma proteção bastante ampla.

de 4 de agosto da revista Science os

Macacos tratados com ela e depois

resultados da etapa seguinte, a última

infectados com zika não apresentaram

antes dos testes em seres humanos,

vírus no sangue, na urina, no líquido

previstos para começarem nos

cefalorraquidiano nem na secreção

próximos meses.

vaginal. “Esse tipo de proteção

“Esses resultados são importantes

é relevante por causa do risco de

porque mostram que é possível gerar

transmissão sexual”, conta o

proteção contra o zika em macacos,

neuroimunologista Jean Pierre Peron,

animais com o sistema de defesa muito

pesquisador da Universidade de São

mais semelhante ao do ser humano

Paulo (USP). Ele e o virologista Paolo

do que os camundongos”, conta o

Zanotto, também da USP, colaboraram

imunologista brasileiro Rafael Larocca,

nos artigos e participam da Rede Zika,

pesquisador do Centro de Virologia e

o consórcio de pesquisadores

Pesquisa em Vacina (CVVR) da Escola

de São Paulo que investigam o vírus

Médica Harvard, nos Estados Unidos.

com apoio da FAPESP.

46  z  agosto DE 2016

dores crônicas

Até o início deste ano, 5.363 casos suspeitos de chikungunya haviam sido identificados em Feira de Santana, o que deixou o sistema público de saúde da cidade próximo do colapso. “Estamos acompanhando dezenas de pessoas que ainda têm dores nas articulações de quatro a seis meses depois de terem adoecido”, conta o infectologista Rivaldo Venâncio da Cunha, da Fiocruz em Mato Grosso do Sul. Desde o início do surto na Bahia, Cunha vai a Feira de Santana e Riachão do Jacuípe, outra cidade baiana muito afetada, para analisar os casos. Segundo ele, de modo geral, quem tem chikungunya usa a rede de saúde com mais frequência que pessoas com zika ou dengue. “Após um surto ou epidemia de dengue, a rede assistencial desafoga aos poucos”, explica. Com a chikungunya, não. “Por causa das dores e da inflamação as pessoas voltam para consultas quase toda semana, por meses. Isso desestrutura qualquer sistema de saúde.” Estudos internacionais indicam que as dores nas articulações são mais intensas no início da infecção e costumam se tornar crônicas nas pessoas com mais de 45 anos. Em uma proporção variável delas, o problema pode persistir por um ano ou mais. Um trabalho dos anos 1980 já mostrou que 12% das pessoas que tiveram chikungunya continuavam a apresentar seus sintomas três anos mais tarde. Em outra avaliação, de 2009, pesquisadores acompanharam por 15 meses a saúde de 147 moradores das ilhas Reunião, no oceano Índico, que haviam tido chikungunya. O resultado? Seis de cada 10 ainda relatavam sentir dores mesmo tanto tempo depois da infecção.

adaptado de Manuel Almagro Rivas / wikimedia commons

Representação artística do vírus zika, que pode prejudicar o desenvolvimento cerebral de fetos em formação e causar microcefalia

ford, na Inglaterra, identificaram duas ondas de transmissão da doença. Em um primeiro momento, de junho a dezembro de 2014, quando a presença de mosquito é menor, os casos se concentraram no bairro George Américo, onde vivia a primeira família infectada. A segunda onda ocorreu entre janeiro e setembro de 2015 e acompanhou a disseminação de dengue e zika na cidade, relataram os pesquisadores em um artigo publicado neste ano na PLoS Currents Outbreaks. Segundo eles, a fase de estabelecimento do vírus passou. Agora há focos de transmissão em vários bairros e o risco de que a infecção se torne endêmica na região.


176.140

A escalada do vírus 2016

Número de casos registrados de janeiro a junho de 2016 já é quase quatro vezes maior que o acumulado nos anos anteriores

140.282

122.010

Em 2014, nove municípios registravam infecção por chikungunya; hoje são 2.054 cidades

102.681

2015

2014 52.008

2 .42

8 16

12

01

6

16

06 11/

/0

01

6a

21 /0

1/2

6a

/2

20

20

5/

5/ /0 01

1/2 /0

03

03

/0

1/2

01

6a

07

23 6a

6a

01

1/2

03

/0

01 1/2 /0 03

16

16 20

/0

/0 05

/0 06 5a 01 1/2 /0 03

4/

3/

2/

20

20

16

16

5 01 /2 /12 05 1/1 /0 04

5a 1/1 /0 04

1/1 /0 04

5a

26

18

/0

/0

7/

9/

20

20

15

15

Semana epidemiológica

5a

30 5a 1/1 /0 04

15 3/ /0 15

21

.34

9 .67

9 .17 15 20 5/ /0

1/0 a2

3/ a0 /14 /12 28

10

59 6.0 20 3/

/2 01

11/ 8/ a0 /14 /11

02

15

3.1 01

5

14 20

/14 10 4/ a0 14 9/ /0 28

95

55 2.4

95 1.0

54 /14 09 6/ a0 14 8/ /0 31

30.609

03

Número de casos acumulados desde o início do surto

fonte boletins epidemiológicos v. 45(20) a v. 47(28) / ministério da saúde

“No Brasil, os casos de chikungunya parecem ser mais frequentes nas regiões mais pobres”, avalia o virologista Renato Pereira de Souza, do Instituto Adolfo Lutz, em São Paulo. “Quando a infecção atinge o provedor da família, gera um problema econômico importante.” Souza esteve em um encontro internacional de virologia, realizado no início de junho em São José do Rio Preto, e conta que vários especialistas se mostraram preocupados com o risco de a chikungunya se tornar o problema do próximo verão. Há razões para a suspeita. O vírus já está em um terço dos municípios brasileiros – inclusive em São Paulo e no Rio de Janeiro, os mais populosos; o Aedes voa e procria por quase todo o país; e a população nunca teve contato com o vírus (aparentemente após a infecção se desenvolve imunidade duradoura). Outra característica do surto brasileiro reforça o receio de que a situação possa se agravar. Apesar da aceleração observada neste ano, o vírus ainda se espalha mais lentamente do que em outros países. “Os surtos de chikungunya

costumam ser explosivos”, conta o infectologista Benedito Lopes da Fonseca, da USP em Ribeirão Preto. Há cerca de um ano e meio, ele preparou seu laboratório para identificar a infecção e diagnosticou dois casos, ambos importados, no início de 2015. “Eu esperava que fosse chegar antes do zika”, diz Fonseca, que trabalha com a Secretaria da Saúde do município na montagem de um sistema de vigilância contra a chikungunya. “Estamos notando que, devagar, há um aumento no número de casos em outras regiões do país”, afirma Souza, do Adolfo Lutz. “O inverno é um momento de suspense, mas importante para unir forças e recursos para combater o mosquito.” Cunha, da Fiocruz, completa: “Esta é a época para organizar a rede de saúde para atender os doentes, já que poucas coisas são tão previsíveis quanto a infestação por Aedes a cada verão.” Ainda não há vacina contra o vírus e o tratamento é paliativo, à base de analgésicos e outras medicações. Para os especialistas, é preciso treinar os médicos para fazerem o diagnóstico correto, em

especial dos casos graves. “No Nordeste temos visto muitos casos de miocardite e uma taxa de óbitos exageradamente alta”, afirma o infectologista Kleber Luz, da Universidade Federal do Rio Grande do Norte (UFRN). Luz é consultor do Ministério da Saúde para a assistência a doentes e, em 2013, acompanhou na Martinica um surto de chikungunya que lhe pareceu uma versão mais branda da doença que circula no país. Ele suspeita de que parte das mortes decorrem do manejo inadequado dos pacientes e do uso de anti-inflamatórios, que devem ser evitados na fase aguda. “É preciso investigar o que está acontecendo”, afirma. n

Artigos científicos NUNES, R. F. et al. Epidemiology of chikungunya virus in Bahia, Brazil, 2014-2015. PLoS Currents Outbreaks. 1 fev. 2016. TEIXEIRA, M. G. et al. East/Central/South African genotype chikungunya virus, Brazil, 2014. Emerging Infectious Diseases. Mai. 2015. MORRISON, C. R.; PLANTE, K. S. e HEISE, M. T. Chikungunya virus: Current perspectives on a reemerging virus. Microbiology Spectrum. 13 mai. 2016. ABBINK, P. et al. Protective efficacy of multiple vaccine platforms against zika virus challenge in rhesus monkeys. Science. 4 de ago. 2016.

pESQUISA FAPESP 246  z  47


evolução y

A

Um parasita com muitas identidades Variedade de Plasmodium vivax encontrada nas Américas acumulou alterações genéticas que a diferenciam das cepas da África e da Ásia Rodrigo de Oliveira Andrade

Lâminas com sangue de pacientes infectados com malária causada por Plasmodium vivax

1

48  z  agosto DE 2016

s variedades de Plasmodium vivax que hoje circulam nas Américas são muito distintas daquelas encontradas na África e na Ásia, segundo um grupo internacional de pesquisadores, entre eles o parasitologista Marcelo Urbano Ferreira, do Instituto de Ciências Biomédicas da Universidade de São Paulo (ICB-USP). Em um estudo publicado em junho na revista Nature Genetics, eles sugerem que, desde que chegou às Américas, o parasita causador da forma mais comum de malária fora da África acumulou mutações genéticas que podem tê-lo ajudado a se adaptar ao novo ambiente e a driblar os mecanismos de defesa de seus hospedeiros e principais vetores, os mosquitos do gênero Anopheles. Os pesquisadores, coordenados pela bióloga Jane Carlton, da Universidade de Nova York, nos Estados Unidos, analisaram o material genético de 182 amostras do parasita obtidas em 11 países da África, da Ásia e da América Latina. O Brasil contribuiu com 20 amostras, coletadas no município de Acrelândia, no Acre, próximo da fronteira com a Bolívia. Por meio de uma técnica chamada seleção híbrida, os pesquisadores isolaram o material genético do protozoário a partir do sangue de indivíduos infectados. As amostras foram sequenciadas e, em seguida, comparadas entre si. Os pesquisadores verificaram que, do ponto de vista genético, as cepas de P. vivax provenientes de países da África e da Ásia eram bem diferentes das dos países da América Latina. O P. vivax causa cerca de 16 milhões, de um total de 214 milhões, de casos de malária no mundo todos os anos. Só no Brasil, estima-se que a espécie responda por 85% dos 300 mil casos da doença notificados anualmente na região da Amazônia. Apesar de a malária ser considerada um grave problema de saúde pública em muitos países, pelo menos um dos parasitas que a causam, o P. vivax, ainda é pouco estudado. Isso ocorre, em parte, porque é quase impossível cultivar essa espécie de Plasmodium em laboratório para investigar a sua biologia. O P. vivax não causa mortalidade, e supostamente não é resistente às drogas. Nos últimos anos, no entanto, começaram a surgir casos de pessoas diagnosticadas com malária causada por P. vivax que apresentavam complicações de saúde e, em alguns casos, morriam. Também a partir dos anos 1990 foram verificados cada vez mais relatos em várias regiões da América Latina de resistência desse parasita ao fármaco cloroquina, o antimalárico mais usado no mundo.


2

Os resultados divulgados na Nature Genetics ajudam a explicar esses fenômenos, de acordo com Ferreira, que há alguns anos se dedica ao estudo de possíveis mecanismos de resistência aos medicamentos antimaláricos na Amazônia. “Esse repertório mais amplo de variantes genéticas confere ao P. vivax maior capacidade de se adaptar ao meio em que vive, o que inclui aprender a driblar as defesas do organismo hospedeiro e a desenvolver resistência às drogas usadas no tratamento da doença”, explica. Isso significa que, por ora, nenhuma vacina ou medicamento antimalárico seria completamente efetivo no controle do parasita.

fotos 1 eduardo cesar 2 e 3 Alessandra Fratus

processo de adaptação

No estudo, os pesquisadores também verificaram que os genes com mais versões alternativas (polimorfismos) eram aqueles responsáveis pela produção de proteínas que são reconhecidas pelo sistema imunológico do hospedeiro, seja o mosquito ou o ser humano. Desse modo, ao chegar às Américas, é provável que tenham sobrevivido apenas os parasitas com uma variedade de genes que lhe permitissem escapar da resposta imune dos mosquitos da região, os quais são bastante diferentes dos que circulam em países da África e da Ásia. Outra conclusão importante é que a variabilidade genômica do P. vivax é muito maior do que a do P. falciparum, espécie predominante no continente africano e responsável pela forma mais

3

Em Acrelândia, no Acre, pesquisadores coletam sangue de moradores com sintomas de malária para diagnóstico

agressiva e fatal de malária. “Há muito mais polimorfismos em uma população de P. vivax na Amazônia do que em toda a população global de P. falciparum”, diz o parasitologista. Os pesquisadores ainda não sabem por que isso aconteceu, mas têm algumas hipóteses. Uma delas é que o genoma de P. vivax teria mecanismos de reparo de mutações menos eficazes. Outra possibilidade é que P. vivax e P. falciparum acumulem mutações de maneira semelhante e que o primeiro tenha agregado mais alterações ao longo do tempo por ser uma espécie mais antiga. Também não é possível dizer quando exatamente o P. vivax chegou às Américas. Segundo Ferreira, é provável que o protozoário tenha vindo com os colonizadores europeus e os escravos. Nesse caso, ele explica, o ciclo de vida do parasita pode ter sido crucial para sua sobrevivência durante a viagem. No organismo humano, o protozoário se instala inicialmente nas células do fígado, nas quais amadurece e se multiplica, antes de ganhar a corrente sanguínea. Ainda no fígado, alguns exemplares do P. vivax entram em estágio de dormência, com baixa atividade metabólica. “O parasi-

ta pode permanecer nesse estágio por meses, até despertar, multiplicar-se e se espalhar no sangue.” Isso daria tempo suficiente para fazer a travessia do Atlântico e chegar em plena atividade ao novo continente. Outra hipótese aventada pelos pesquisadores é que parte dos parasitas que circulam nas Américas seja descendente de exemplares vindos há mais de 10 mil anos, a partir do leste asiático, com as primeiras migrações humanas. Ferreira e sua orientanda de mestrado Thaís Crippa de Oliveira trabalham agora no sequenciamento de outras nove amostras do P. vivax obtidas no Acre. A partir delas, o pesquisador quer verificar diferenças e semelhanças com as cepas de outras regiões das Américas, como Colômbia, Peru e México. “Pretendemos desenvolver marcadores genéticos de resistência à cloroquina e comparar os dados obtidos em nosso laboratório com informações colhidas em outras regiões sobre relatos de resistência do parasita ao medicamento”, conclui. n

Projeto Resistência à cloroquina em Plasmodium vivax: avaliação fenotípica e molecular na Amazônia Ocidental brasileira (nº 2010/51835-7); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Marcelo Urbano Ferreira (ICB-USP); Investimento R$ 103.417,00.

Artigo científico HUPALO, D. N. et al. Population genomics studies identify signatures of global dispersal and drug resistance in Plasmodium vivax. Nature Genetics. 27 jun. 2016.

pESQUISA FAPESP 246  z  49


Citricultura y

Ousadia recompensada Conhecimento gerado pelo sequenciamento da Xylella fastidiosa diminuiu incidência da bactéria em laranjeiras de São Paulo

E

m meados da década de 1990, a produção de mudas de laranjeiras em São Paulo era feita a céu aberto, o que deixava as plantas expostas a insetos vetores de microrganismos nocivos. Entre eles a Xylella fastidiosa, bactéria causadora da clorose variegada dos citros (CVC), conhecida como “amarelinho”, por conta das manchas que deixa nas folhas e nos frutos. Na época, a praga atingiu 34% dos pomares de laranja do estado, causando danos de cerca de US$ 100 milhões (o equivalente hoje a R$ 327 milhões) ao ano à citricultura paulista. Graças ao esforço de pesquisa empregado nas duas décadas seguintes, pôde-se avançar no conhecimento da biologia da bactéria e no desenvolvimento de um modelo de manejo da doença, hoje baseado no plantio de mudas cultivadas em viveiros protegidos, na poda ou eliminação das plantas contaminadas, e no controle dos vetores. Como resultado, a porcentagem de laranjeiras atacadas pela bactéria em São Paulo e no Triângulo Mineiro despencou de 42,58% em 2008 para 3,02% em 2016. “O avanço no controle da CVC não teria sido possível sem o sequenciamento do genoma da Xylella e o estudo dos mecanismos que permitem à bactéria desencadear a doença”, disse o agrônomo Antonio Juliano Ayres, gerente-geral do Fundo de Defesa da Citricultura (Fundecitrus), em um seminário realizado no dia 13 de julho na FAPESP sobre os impactos do sequenciamento da bactéria no controle da praga do amarelinho. Os dados gerados a partir do sequenciamento da bactéria, segundo Ayres, foram importantes para que se pudesse avançar no conhecimento da epidemiologia da doença. A partir de então, experimentos realizados no interior do estado mostraram que tanto a Xylella quanto a cigarrinha, vetor responsável pela sua disseminação, propagavam-se mais intensamente em regiões mais quentes, onde havia escassez de água. Isso desencadeou uma mudança no sistema de plantio da laranja, com o uso de mudas cultivadas em viveiros protegidos e o aumento da irrigação nas plantações. A medida, aliada ao uso de inseticidas contra os vetores e à eliminação de plantas mais infectadas ou à poda das menos afetadas, resultou na supressão da con-


2

3

fotos 1 léo ramos 2 e 3 fundecitrus

Transmitida pela cigarrinha (acima), a Xylella impede o transporte de água e nutrientes pela planta, gerando frutos duros, pequenos e queimados (ao lado)

taminação de viveiros pela bactéria e na queda da incidência do problema nos laranjais paulistas. A bactéria obstrui os vasos responsáveis pelo transporte de água e nutrientes da raiz para a copa, gerando frutos duros, pequenos e queimados, que amadurecem mais rápido e se tornam impróprios para ser comercializados. O sequenciamento da bactéria abriu caminho para pesquisas de melhoramento genético visando à obtenção de variedades mais resistentes ao fitopatógeno e de inseticidas contra a cigarrinha, segundo o biólogo molecular Jesus Aparecido Ferro, da Faculdade de Ciências Agrárias e Veterinárias da Universidade Estadual Paulista (FCAV-Unesp), em Jaboticabal. Para ele, existem hoje várias pesquisas nesse sentido, mas nenhuma resultou em uma estratégia efetiva de controle da bactéria por meio da engenharia genética. “O manejo da doença segue sendo a principal estratégia de controle da Xylella”, diz Ferro, que teve participação ativa nos projetos Genoma da FAPESP.

projeto ambicioso

Lançado em 14 de outubro de 1997 pela FAPESP, com apoio do Fundecitrus, o projeto do genoma da Xylella envolveu uma rede de 60 laboratórios e mais de 190 pesquisadores de várias instituições do estado e de diferentes disciplinas, integrados virtualmente por meio da Rede de Organização para o Sequenciamento e Análise de Nucleotídeos (Rede Onsa, em inglês). O trabalho, concluído em novembro de 1999, consistiu no sequenciamento dos 2,7 milhões de pares bases do cromossomo da Xylella e na identificação dos genes presentes no genoma da bactéria que lhe permitiam desencadear o amarelinho. De acordo com o diretor científico da FAPESP, Carlos Henrique de Brito Cruz, que participou do evento, o sequenciamento do genoma da Xylella teve como principal objetivo a qualificação dos cientistas brasileiros. O mapeamento do genoma da bactéria ampliou as perspectivas de pesquisa em genética no Brasil. Outros sequenciamentos foram feitos a partir de então,

como o projeto Genoma Cana, iniciado em julho de 1999, com o objetivo de sequenciar partes escolhidas do DNA da cana-de-açúcar e identificar genes com características de interesse econômico. Quase ao mesmo tempo surgiram também o Genoma Câncer, em parceria com o Instituto Ludwig de Pesquisa sobre o Câncer, e o projeto de sequenciamento do código genético da bactéria Xanthomonas axonopodis pv. citri, causadora do cancro cítrico. O desenvolvimento de um modelo de manejo da CVC contribuiu para que se pudesse avançar também na elaboração de estratégias de controle do huanglongbing, conhecido como greening, doença que afeta o amadurecimento dos frutos. Quando o greening surgiu nos laranjais de São Paulo, os citricultores perceberam que as medidas usadas para seu controle teriam de ser diferentes das empregadas no combate do amarelinho. “O manejo do greening teria de ser feito em escala regional, já que o número de vetores da bactéria causadora da doença é muito maior do que a do amarelinho e a colonização da bactéria é muito mais rápida”, disse o engenheiro-agrônomo Armando Bergamin Filho, da Escola Superior de Agricultura Luiz de Queiroz da Universidade de São Paulo (Esalq-USP). Segundo ele, ainda há muito o que fazer para que o greening, como o amare­ linho, fique no passado da citricultura paulista. n Rodrigo de Oliveira Andrade pESQUISA FAPESP 246  z  51


Matemática y

Peneira virtual Sistema compara o desempenho de praticantes do futebol e ajuda a identificar talentos para o esporte Marcos Pivetta

52  z  agosto DE 2016

P

eneira é o nome popular dos testes que os clubes de futebol promovem periodicamente em busca de talentos mirins para suas categorias de base. Dezenas, às vezes centenas de garotos são agrupados em um campo de futebol e distribuídos em diferentes equipes, que jogam umas contra as outras. Funcionários do clube observam os candidatos a jogador e, ao final de uma série de partidas de curta duração, separam os que eventualmente se destacam por algum motivo, como ser bom de drible ou ter noções de posicionamento em campo. Em geral, a escolha dos meninos depende essencialmente do “olho treinado” dos promotores da peneira para antever futuros craques. Pesquisadores do Centro de Ciências Matemáticas Aplicadas à Indústria (CeMEAI), um dos 17 Centros de Pesquisa, Inovação e Difusão (Cepid) financiados pela FAPESP, criaram um sistema virtual, o iSports, que permite acompanhar e comparar o desempenho e as características dos candidatos a jogador de futebol com o emprego de análises estatísticas. “O iSports pode ser usado para identificar, de forma mais objetiva, garotos que têm um desempenho acima da média dentro de um grupo e, assim, descobrir talentos para o futebol”, explica um dos criadores da ferramenta virtual, Francisco Louzada Neto, professor do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP) de São Carlos e coordenador de transferência de tecnologia do CeMEAI. O sistema consiste em uma plataforma, de acesso fechado, que precisa ser abastecida com dados sobre a performance dos jogadores em diferentes tipos de testes físicos, de resistência e de força, e também sobre habilidades importantes para a prática do futebol, como conduzir a bola em torno de cinco cones, dar chutes e executar passes. Os pesquisadores de São Carlos estabeleceram parcerias com duas escolinhas de futebol da cidade, nas quais exames foram conduzidos em mais de 100 meninos. As informações coletadas foram transferidas para o iSports, que conta com software livre de análise estatística capaz de comparar um ou vários índices de desempenho de um garoto com os dos demais membros da escolinha. Dessa forma, uma vez inseridos os

Jovens jogando bola na periferia de São Paulo: software de análise estatística compara índices de desempenho de candidatos a jogador de futebol


resultados dos testes, o programa aponta qual seria o jogador mais habilidoso ou com o melhor preparo físico. Se o teste for aplicado mais de uma vez no mesmo grupo de meninos, o sistema também calcula quem são os garotos com performance mais consistente. “Podemos comparar individualmente cada membro do grupo ou reuni-los em diferentes equipes e comparar um time contra outro”, afirma Louzada. O iSports foi descrito em artigo publicado na edição de fevereiro do periódico Expert Systems with Applications.

fotos  léo ramos

estratégia z

O emprego de técnicas estatísticas para caçar talentos esportivos não é algo novo no Brasil, embora implementar abordagens mais científicas nos clubes e agremiações, especialmente de futebol, nunca seja uma tarefa fácil. A base das análises estatísticas do iSports que, simultaneamente, levam em conta mais de uma variável referente ao desempenho dos atletas é uma antiga fórmula, que andava um pouco esquecida, para

procurar esportistas promissores: a estratégia Z. Criada no fim dos anos 1980 pela equipe do médico Victor Matsudo, do Centro de Estudos do Laboratório de Aptidão Física de São Caetano do Sul (Celafiscs), a Z ganhou o prêmio de melhor trabalho científico apresentado na Olimpíada Cultural de 1992, realizada em Barcelona. A estratégia permite calcular o quão melhor (ou pior) é o desempenho de um indivíduo em uma determinada tarefa ou exercício em relação à média da população de mesmo sexo e idade. Quanto maior o índice Z, melhor é a performance do atleta em relação a seus pares. A lógica da abordagem parece simples e certeira. Matsudo, no entanto, faz algumas ressalvas sobre o emprego da estratégia Z na busca por atletas de alta performance. “Infelizmente ainda existem no Brasil iniciativas que se propõem a encontrar um grande talento olímpico analisando apenas 100 jovens com bons resultados”, critica o médico, hoje mais voltado para o estudo da atividade física como fator de promoção de saúde.

“A experiência da antiga Alemanha Oriental – maior referência de detecção de talentos em todos os tempos, considerando o tamanho de sua população – indica que se conseguia chegar a 10 superatletas a partir de 100 mil crianças avaliadas.” Matsudo chegou a aplicar a estratégia Z em 7 mil crianças de São Caetano. A jogadora de basquete Hortência, ainda menina, foi um dos atletas olímpicos avaliados por Matsudo, que a identificou como alguém com talento aos 12 anos. Por ora, o iSports está sendo testado mais em crianças fora do que dentro do Brasil. Os pesquisadores do Cepid estabeleceram parceria com Josivaldo Souza Lima, professor de educação física que trabalha no Centro de Estudios Avanzados de Fisiología del Ejercicio, em Talca, Santiago, no Chile. “Estamos usando o iSports em uma amostra de 30 mil crianças e adolescentes, com idades de 12 a 16 anos, de escolas públicas e privadas de todas as 13 regiões do país”, explica Lima. Com as comparações feitas pelo sistema, os chilenos planejam fazer uma triagem de atletas promissores para várias modalidades – e não somente futebol – e encaminhá-los para centros de treinamento de alta performance. “Com esse trabalho, queremos auxiliar o plano olímpico do governo para os jogos de 2020 e 2024”, conta Lima. Segundo Louzada, o iSports já está pronto para ser aplicado em escolinhas de futebol e pode ser facilmente adaptado à caça de talentos de outras modalidades. n

Projeto CeMEAI – Centro de Ciências Matemáticas Aplicadas à Indústria (nº 2013/07375-0); Modalidade Centros de Pesquisa, Inovação e Difusão (Cepid); Pesquisador responsável José Alberto Cuminato (ICMC-USP); Investimento R$ 11.556.885,76 (por todo o projeto).

Artigo científico LOUZADA, F. et al. iSports: A web-oriented expert system for talent identification in soccer. Expert Systems with Applications. v. 44, p. 400-12. fev. 2016.

pESQUISA FAPESP 246  z  53


GEOGRAFIA FÍSICA y

Sob a força dos Andes

Mapa expõe uma visão abrangente do relevo da América do Sul, agora dividido em 35 unidades Carlos Fioravanti

Aconcágua, a montanha mais alta do continente, na Argentina: cordilheira pressiona as estruturas rochosas a leste

54  z  agosto DE 2016

“S

ão dunas!”, admirou-se o geógrafo Jurandyr Ross, professor da Universidade de São Paulo, diante das elevações de solo arenoso ocupadas por raros tufos de plantas espinhosas, ovelhas e lhamas, próximas às chapadas conhecidas como mesetas do deserto da Patagônia, no sudoeste da Argentina, logo depois do Natal de 2015. Sob sol intenso, em uma viagem de 16 dias e 9 mil quilômetros, Ross e outros geógrafos tiravam as dúvidas finais sobre as imagens de radar e satélite usadas para preparar o mapa de relevo da América do Sul em que ele e sua equipe trabalharam ao longo do ano. Publicado como parte de um artigo na edição de agosto de 2016 da Revista Brasileira de Geografia, o novo mapa substitui o anterior, bastante simples, da década de 1940, e destaca em 35 unidades distintas as particularidades dos três grandes blocos formadores do continente: a Cordilheira dos Andes a oeste, a grande planície central adjacente às montanhas e os planaltos de baixa altitude que formam a quase totalidade do território brasileiro. As divisões, algumas com centenas de quilômetros quadrados, oferecem uma visão integrada do continente e refletem a vinculação do relevo brasileiro com a cordilheira andina. “Embora as estruturas que sustentam o relevo brasileiro sejam muito antigas, as formas atuais resultam de fortes


Jorge Díaz / Wikicommons

influências da atividade tectônica dos Andes, que é geologicamente bem mais recente”, diz Ross. O soerguimento da cordilheira, como resultado da pressão de placas tectônicas sobre o assoalho marinho, determinou a mudança da direção – de oeste para leste – do rio Amazonas e de outros da Bacia Amazônica. Além disso, segundo o pesquisador, as serras do Mar e da Mantiqueira, ao longo do litoral, e o Vale do Paraíba, na região de Taubaté, formaram-se como resultado da pressão e do enrugamento da cordilheira sobre a estrutura rochosa a leste. “Hoje vivemos uma época de calmaria tectônica, mas a reconfiguração do relevo já foi muito mais intensa, em decorrência dos Andes”, diz o geógrafo Silvio Rodrigues, professor da Universidade Federal de Uberlândia, em Minas Gerais. Segundo ele, os Andes ainda influenciam o continente porque estão sobre duas placas tectônicas ativas, a de Nazca e a Sul-americana, que geram energia, por meio de processos tectônicos, que pode chegar ao litoral do Atlântico. “Como o relevo brasileiro já é bastante conhecido, o que mais interessa neste mapa é a análise dos Andes e da depressão central, entre os Andes e o território brasileiro.” Depois de fazer o mapa do relevo brasileiro na escala 1:5 milhões (de 1 para 5 milhões; 1 centímetro no mapa equivale

a 50 quilômetros), publicado em 1996 no livro Geografia do Brasil (Edusp), e o do relevo do estado de São Paulo na escala 1:500.000, dois anos depois (ver Pesquisa Fapesp no 35), Ross resolveu fazer uma síntese do relevo da América do Sul porque não encontrava nenhum mapa atualizado para usar em suas aulas. O único que achou, já com seu trabalho avançado, era de 1942, feito pelo Serviço Geológico dos Estados Unidos. Ele usou principalmente as imagens de radar do satélite Shuttle Radar Topography Mission (SRTM), da Nasa, a agência espacial dos Estados Unidos, complementadas pelas do Google Earth, pelo mapa geológico da América do Sul produzido pela Companhia de Pesquisa de Recursos Minerais (CPRM), empresa pública do Ministério de Minas e Energia, e por trabalhos acadêmicos. Na escala de 1:8 milhões, o novo mapa pode ser útil no planejamento ambiental e econômico. “O relevo, os solos e o clima condicionam a ocupação humana e o agronegócio”, diz Ross, associando os terrenos planos de Mato Grosso ao cultivo de soja e de cana-de-açúcar, e os vales do Chile, em meio às montanhas, com a produção de frutas. As formas do relevo, ele observa, expressam tanto as forças internas da Terra, como os movimentos do magma, quanto as externas, como a erosão e as intempéries. pESQUISA FAPESP 246  z  55


A Montanha Mais Jovem

A cadeia montanhosa predominante, estendendo-se de norte a sul do continente, com altitudes de 1.500 a 2.600 metros, é a Cordilheira Ocidental, formada em duas fases, uma há cerca de 85 milhões de anos e outra há 40 milhões de anos. A Cordilheira Costeira é ainda mais recente, do final do período Cenozoico, entre 1,7 milhão e 23 milhões de anos. Entre as montanhas há vales ocupados por cidades como Santiago, a 800 metros de altitude, e o deserto de Atacama, que Ross visitou em novembro, em outra viagem de checagem de campo, impressionando-se com a película branca de sal sobre o solo árido vermelho. Entre as montanhas e os planaltos baixos do Brasil estende-se a Depressão Central Sul-americana, formada por planícies com trechos alagáveis como as dos rios Orenoco na Venezuela, do Mamoré-Beni na Bolívia e do Paraguai 56  z  agosto DE 2016

NASA

O mapa delimita as unidades dos três blocos fundamentais do continente com base em diferenças da constituição geológica, solos e formas de relevo. O bloco a leste reúne planaltos de baixa altitude, com as bacias dos principais rios brasileiros, delimitadas pelas áreas em azul no mapa, as depressões em laranja, as serras litorâneas em vermelho. É a parte mais antiga do continente, com mais de 1 bilhão de anos, formada na era geológica conhecida como pré-Cambriano. Esse bloco fazia parte, com as atuais África e Índia, do supercontinente Gondwana, que começou a se fragmentar cerca de 150 milhões de anos atrás, no período Jurássico, marcado também pela abertura do Atlântico Sul. O cráton amazônico, a norte e sul das planícies do rio Amazonas, forma as estruturas rochosas mais antigas do continente, com cerca de 2,5 bilhões de anos. Em vermelho, os morros e serras representam os resquícios já bastante erodidos de cordilheiras mais antigas que os Andes. “Quando se formaram, entre 550 milhões e 1,5 bilhão de anos, eram tão altas quanto os Andes”, diz Ross. A oeste encontra-se a Cordilheira dos Andes, bloco geologicamente mais recente do que a porção leste. Ross destacou o trecho mais antigo e mais alto, a Cordilheira Oriental, com cerca de 100 milhões de anos de idade e altitudes de 4 mil metros, na Bolívia e na Argentina.

Altos e baixos da América do Sul Montanhas, longas depressões e planaltos erodidos marcam o

relevo do continente Cráton Amazônico n Planaltos Residuais em Coberturas de Plataformas (1.1) n Planaltos em Estruturas Ígneas e Metamórficas (1.2) n Depressões Marginais e Interplanálticas (1.3)

O continente visto pelo radar do satélite SRTM: base para a classificação do relevo

no Brasil, Paraguai e Argentina. A idade média da superfície dessa área (em amarelo no mapa) varia de 10 mil a 3 milhões de anos, com altitude máxima de 200 metros na região entre o Paraguai e a Bolívia. “Toda essa área muito baixa, com colinas de topo plano, vales levemente entalhados, planícies e pantanais chamadas de chaco, era um grande mar, há milhões de anos, antes de os Andes emergirem”, diz Ross. A geógrafa Isabel Cristina Gouveia, professora da Universidade Estadual Paulista (Unesp) em Presidente Prudente, comenta que dois grandes geógrafos brasileiros do século passado, Aziz Ab’Saber e Fernando de Almeida, contribuíram bastante para o conhecimento sobre o território nacional mesmo sem imagens de satélites, hoje de fácil acesso. “Curiosamente”, diz ela, “mesmo com imagens de alta resolução e recursos de Sistemas de Informação Geográfica, ainda são poucos os estudos que valorizam o mapeamento geomorfológico como método de análise e sistematização do conhecimento sobre o relevo”. n

Cinturões orogenéticos antigos Planaltos n e Serras do Atlântico Leste-Sudeste (2.1) n e Serras de Goiás-Minas (2.2) n do Nordeste Oriental (2.3) n Uruguaio-Sul-rio-grandense (2.4) n e Serras do Alto Paraguai/Bodoquena (2.5) Depressão n Sertaneja e do São Francisco (2.6) n Cuiabana e do Alto Paraguai (2.7) n do Miranda-Bodoquena (2.8) n do Tocantins (2.9) plataforma da Patagônia Planaltos n em Estruturas Vulcano-Sedimentares (3.1) n em Coberturas Sedimentares Mesocenozoicas (3.2) Bacias Sedimentares paleomesozOicas Planaltos e Chapadas n da Bacia do Paraná (4.1) n da Bacia do Parnaíba (4.2) n da Bacia do Parecis (4.3) Planaltos e Tabuleiros n da Bacia da Amazônia Oriental (4.4) Depressão Periférica n da Borda Leste da Bacia do Paraná (4.5) n Central Gaúcha-Uruguaia (4.6) Cinturões Orogenéticos MesoCenozoicos Cordilheira dos Andes n Oriental (5.1) n Centro-Ocidental (5.2) n Costeira (5.3) Bacias Sedimentares Cenozoicas Depressão Central Sul-americana (6.1) Tabuleiros e Colinas n da Bacia do Orenoco (6.1.1) n da Bacia do Solimões (6.1.2) n do Alto Paraguai (6.1.3) Planícies e Pantanais n da Bacia do Orenoco (6.1.4) n das Bacias Beni-Mamoré (Chaco) (6.1.5) n das Bacias Paraguai-Paraná (Chaco) (6.1.6) Planícies e Colinas n das Bacias Paraguai-Paraná-Prata (6.1.7) Planícies e Campos n de Dunas Fixas das Bacias do Salado-Colorado (6.1.8) Tabuleiros e Planícies Costeiras n do Atlântico (6.2) n do Pacífico (6.3) Planícies n Fluviais Interiores (6.4) n Vales Sinclinais Intermontanos (6.5) Fonte  JURANDYR L.S. ROSS/USP

Artigo científico ROSS, J. L. S. Compartimentação do relevo da América do Sul. Revista Brasileira de Geografia. v. 61, n. 1, p. 21-58, 2016.


Depressão central sul-americana As vastas planícies com trechos alagáveis como

Panamá

as dos rios Orenoco (6.1.1) e Paraguai (6.1.3)

Venezuela

ocuparam o espaço de um antigo mar, que se

Guiana suriname guiana francesa

Colômbia

fechou quando os Andes se formaram

equador

fotos 1 Pedroivan / wikimedia commons  2 Eassi / wikimedia commons  3 Butterfly voyages / wikimedia commons  infográfico ana paula campos  Mapa  JURANDYR L. S. ROSS/USP

peru Brasil

Bloco gondwânico do Brasil Porção mais antiga do continente, resultante da fragmentação do

Cordilheira dos Andes

supercontinente Gondwana.

Bolívia

O cráton amazônico (1.1, 1.2 e 1.3) forma as estruturas

O trecho mais antigo,

rochosas mais antigas do

com 100 milhões de anos

continente, com cerca

Paraguai

de idade, e mais alto,

de 2,5 bilhões de anos, e

até 4 mil metros de

altitudes predominantes de

altitude, ocupa parte da

100 a 400 metros

Bolívia e da Argentina (em lilás, 5.1). Os poucos vales (6.5) abrigam cidades e plantações

uruguai Chile

Chile

A serra da Mantiqueira integra planaltos bastante erodidos, entremeados por depressões (em laranja). As bacias sedimentares mais antigas estão em azul

Argentina

O deserto da Patagônia representa um resquício do Gondwana, com planaltos bastante erodidos com chapadas e morros de origem vulcânica que se cobrem de gelo no inverno

1

2

3

N

KM 0

100 200

400

600

800

A conformação recortada do extremo sul decorre do deslocamento do continente para oeste. Ao lado, a cidade de Ushuaia, no extremo sul da América do Sul


PALEONTOLOGIA y

Por dentro dos fósseis Tomografia por computador se torna mais disseminada e permite análises detalhadas de ossos de animais extintos Igor Zolnerkevic e Carlos Fioravanti

E

nxergar dentro de um ovo era a grande inquietação do paleontólogo Sérgio Alex Azevedo, pesquisador do Museu Nacional da Universidade Federal do Rio de Janeiro (UFRJ), no início dos anos 1990. Nessa época ele estudava um suposto ovo intacto da coleção do museu, posto por uma espécie ancestral de tartaruga há mais de 65 milhões de anos, encontrado no interior paulista e transformado em rocha sólida. Serrar a peça raríssima para estudá-la era impensável. Ele tirou uma radiografia, mas a mancha disforme da chapa fotográfica não ajudou muito. Com ajuda de colegas, conseguiu acesso a uma máquina de tomografia computadorizada do Hospital São Lucas da Pontifícia Universidade Católica do Rio Grande do Sul (PUC-RS), em Porto Alegre, que combina imagens de raios X de várias 58  z  agosto DE 2016

seções de um corpo e gera um mapa tridimensional de suas partes e cavidades interiores. Nas imagens do tomógrafo, era possível distinguir os contornos gerais da cabeça, do dorso e da vértebra do embrião com menos de 5 centímetros de comprimento. “Só me convenci do que eu via quando mostrei as imagens a um médico radiologista”, conta Azevedo. Seu trabalho, publicado em 2000 nos Anais da Academia Brasileira de Ciências, foi um dos primeiros no Brasil a aplicar a tomografia computadorizada à paleontologia. Se há 20 anos essa técnica ainda era uma novidade mesmo entre paleontólogos no exterior, hoje é mais acessível, principalmente com o desenvolvimento de microtomógrafos e com o aumento da resolução dos equipamentos. As imagens são agora geradas a partir de raios X

com poder de penetração maior do que o dos tomógrafos médicos, e computadores combinam centenas de imagens. Os pesquisadores conseguem identificar detalhes micrométricos do interior de ossos fósseis sem precisar quebrá-los ou extraí-los completamente do bloco de rocha em que foram encontrados. Além de preservar os fósseis, o escaneamento do material gera informações que podem ser usadas para criar modelos tridimensionais e animações em computador que ajudam a entender melhor a estrutura e os movimentos de animais extintos. No Brasil, as máquinas desse tipo para uso em paleontologia não chegam a uma dezena, fazendo com que os pesquisadores recorram às de instituições da área médica, de engenharia, geociências ou física, já que é muito difícil sair do país com fósseis. Mas cada vez mais museus


fotos Desenho Taenadoman, Wikimedia Commons Ossos Gabriela Sobral

O Euparkeria capensis, acima em representação artística, era do tamanho de um gato. A tomografia do crânio (ao lado) detalha as cavidades do ouvido interno e reforça a hipótese sobre sua agilidade

e universidades nacionais investem na compra de suas próprias máquinas de microtomografia computadorizada, a despeito do custo: apenas a licença de uso do programa de computador para o equipamento pode custar cerca de R$ 50 mil. “A microtomografia ainda é cara, mas já virou praxe na área”, afirma a paleontóloga Gabriela Sobral, da Universidade Federal de Santa Catarina (UFSC). Em 2012, durante o doutorado, ela usou o microtomógrafo do Museu de História Natural de Berlim para reconstituir a história da evolução do ouvido interno dos arcossauros, grupo de animais que inclui os crocodilos, os dinossauros e os descendentes diretos do único subgrupo não extinto de dinossauros, as aves (ver Pesquisa FAPESP nº 202). “Antes da tomografia só era possível acessar estruturas internas do crânio, como as pESQUISA FAPESP 246  z  59


Conhecer sem destruir A tomografia revela o interior de fósseis e ao mesmo tempo os preserva

1

Fragmento do osso ílio de um abelissauro (acima): a forma como as cavidades se ramificam (ao lado) lembra a estrutura dos ossos porosos, típicos das aves

do ouvido interno, se o fóssil estivesse quebrado”, conta ela. Em um artigo publicado em julho deste ano na revista Royal Society Open Science, Gabriela e outros especialistas da Alemanha, do Reino Unido, dos Estados Unidos e da África do Sul apresentaram as tomografias do ouvido interno de Euparkeria capensis, réptil do tamanho de um gato, extinto há 245 milhões de anos. As imagens revelaram o formato das cavidades ósseas que abrigavam os três canais semicirculares do ouvido interno, estruturas relacionadas à capacidade do animal de manter o equilíbrio do corpo quando em movimento. “Os resultados confirmam a hipótese de que Euparkeria era um animal mais ativo e ágil que a maioria dos répteis da época.” Os pesquisadores sugerem que essa espécie, descoberta na África do Sul em 1913, seja a que mais se aproxima do ancestral comum de todos os arcossauros. Entender a anatomia de Euparkeria, portanto, ajuda a desvendar como os arcossauros teriam se definido como um grupo evolutivamente único, a partir dos demais grupos de répteis. Gabriela explica que operar um microtomógrafo não é trivial – os pesquisadores do museu de Berlim levaram três anos até conseguir usar a máquina com correção. “Os ajustes dos raios X do 60  z  agosto DE 2016

A necessidade de computadores com muita memória para arquivar e tratar as imagens transformou a paleontologia em uma ciência cara

“Os estudantes estão querendo cada vez mais usar essa técnica”, observa Alexander Kellner, paleontólogo do Museu Nacional. Enquanto não chega o aparelho do próprio museu, um de seus alunos de mestrado, Arthur Brum, usou um tomógrafo do Centro de Pesquisas da Petrobras para analisar fragmentos de ossos de um abelissauro, tipo de dinossauro encontrado no interior de São Paulo que lembra um tiranossauro, com apenas 3 metros de comprimento. As imagens, publicadas em maio deste ano na Cretaceous Research, confirmaram que os abelissauros possuíam ossos porosos, semelhantes aos das aves. Mordidas de 237 milhões de anos

scanner têm parâmetros similares aos de uma máquina fotográfica profissional, como tempo de exposição e intensidade do flash”, diz ela. “Cada fóssil exige uma análise diferente”, reitera Azevedo, da UFRJ. Desde 2002, seu grupo utiliza os tomógrafos de uma clínica médica particular e do hospital da Universidade do Estado do Rio de Janeiro e os microtomógrafos da UFRJ e da PUC do Rio de Janeiro para estudar materiais fósseis e arqueológicos, como múmias egípcias (ver Pesquisa FAPESP nº 215).

Em colaboração com Kellner, o biólogo Voltaire Paes Neto, da Universidade Federal do Rio Grande do Sul (UFRGS), identificou as mordidas mais antigas já registradas, feitas por insetos com mandíbulas em um osso de um animal do grupo dos dicinodontes, herbívoros do porte de rinocerontes, há 237 milhões de anos. Paes Neto usou um aparelho de tomografia do Hospital das Clínicas de Porto Alegre. Paes Neto demorou quatro anos para caracterizar as marcas nos fósseis, desde que encontrou perfurações que ninguém sabia explicar em um osso de arcossauro


3 2

Retrato inédito de um ovo: primeiro estudo de tomografia de fóssil no Brasil revelou os contornos de embrião de tartaruga com cerca de 65 milhões de anos

fotos  1 e 2 Arthur Brum 3 Sergio Alex Azevedo

Pedaço de fêmur de abelissauro (acima): o alinhamento das microfraturas internas (ao lado) indica a pressão do corpo do animal sobre as pernas

que recebeu para limpar ao chegar ao laboratório de paleontologia coordenado por Marina Bento Soares, na UFRGS, em 2011. Como os orifícios de 4 milímetros de diâmetro eram perfeitos, ele descartou a possibilidade de resultarem de alguma doença óssea, que dificilmente deixaria marcas tão regulares, e, por fim, concluiu que os tubos e as trilhas de mandíbulas deveriam ter sido feitos por insetos semelhantes a besouros e cupins atuais, que ainda hoje se alimentam de ossos e restos de animais em decomposição. Uma das marcas, uma trilha deixada por mandíbulas, foi por enquanto registrada apenas em osso de cinodontes – animais que deram origem aos mamíferos – do atual sul do Brasil e ganhou o nome de Osteocallis infestans. As marcas dos insetos nos ossos têm nome científico, com gênero e espécie, que indicam o comportamento dos animais extintos que as fizeram. No período geológico conhecido como Triássico, entre 252 milhões e 201 milhões de anos, os besouros haviam apenas começado a se diversificar, a conquistar novos ambientes e a formar um grupo com cerca de 350 mil espécies. “Creio que é possível encontrar marcas semelhantes em fósseis ainda mais antigos do que esses”, diz Kellner. “Como as imagens tridimensionais exigem computadores com alta capa-

cidade de processamento, a tomografia transformou a paleontologia, antes relativamente barata, em uma ciência cara”, observa Felipe Montefeltro, paleontólogo da Universidade Estadual Paulista (Unesp) de Ilha Solteira, que estuda a evolução do ouvido interno de crocodilos e já utilizou microtomógrafos de instituições de pesquisa do Canadá e do Reino Unido. Do mesmo modo, a bióloga Tiana Kohlsdorf, da Faculdade de Filosofia, Ciências e Letras de Riberão Preto (FFCLRP) da Universidade de São Paulo (USP), analisa espécies de répteis e anfíbios atuais usando o microtomógrafo do Instituto de Biociências (IB) da USP, em colaboração com o zoólogo Gabriel Marroig, também do IB (ver Pesquisa FAPESP nº 230). MUITO ALÉM DA POEIRA

Gabriela Sobral se prepara para começar em setembro um projeto de pós-doutorado valendo-se do microtomógrafo do Museu de Zoologia (MZ) da USP, adquirido em 2015, idêntico ao que usava em Berlim. Ela pretende registrar as etapas do desenvolvimento de embriões de jacaré-do-pantanal, em colaboração com o zootecnista Willer Girardi, utilizando corantes especiais que permitem distinguir músculos e vísceras nas imagens do tomógrafo. “A microtomografia também

está sendo muito usada na biologia comparativa”, diz Hussam Zaher, zoólogo especialista em serpentes que coordena o projeto de compra e instalação da nova máquina do MZ. Agora, ele ressalta, um pesquisador interessado em conhecer a estrutura interna de uma espécie não precisa necessariamente dissecar o corpo intacto de um animal conservado em álcool no museu. “A técnica ajuda a preservar as coleções.” Kellner, da UFRJ, reforça: “Esqueça aquela imagem do paleontólogo apenas assoprando poeira dos fósseis. A paleontologia está cada vez mais sofisticada, com a tecnologia nos permitindo investigar questões cada vez mais complexas sobre animais que viveram há milhões de anos”. n

Artigos científicos AZEVEDO, S. A. et al. A possible chelonian egg from the Brazilian Late Cretaceous. Anais da Academia Brasileira de Ciências. v. 72, n. 2, p. 187-93. 2000. SOBRAL, G. et al. New information on the braincase and inner ear of Euparkeria capensis Broom: implications for diapsid and archosaur evolution. Royal Society Open Science. 13 jul. 2016. BRUM, A. S. et al. Morphology and internal structure of two new abelisaurid remains (Theropoda, Dinosauria) from the Adamantina Formation (Turonian – Maastrichtian), Bauru Group, Paraná Basin, Brazil. Cretaceous Research. v. 60, p. 287-96. 2016. PAES NETO, V. D. et al. Oldest evidence of osteophagic behavior by insects from the Triassic of Brazil. Palaeogeography, Palaeoclimatology, Palaeoecology. v. 453, p. 30-41. 2016.

pESQUISA FAPESP 246  z  61


FÍSICA y

Superpropriedades em 2D Simulações sugerem que é possível criar novos materiais nanoestruturados capazes de armazenar informação

C

álculos de uma equipe de físicos teóricos trabalhando em São Paulo e Cingapura sugerem que uma folha de óxido de estanho (SnO) com apenas um átomo de espessura pode adquirir propriedades mecânicas e magnéticas extraordinárias. Materiais formados por uma só camada de átomos são chamados de bidimensionais porque apresentam largura e profundidade, mas têm espessura desprezível. Nos últimos anos, eles vêm despertando o interesse de pesquisadores teóricos e experimentais por causa das propriedades elétricas, magnéticas, mecânicas e ópticas que podem apresentar. O óxido de estanho, por exemplo, cuja estrutura atômica está representada à esquerda nesta página, pode se tornar uma vedete da nanotecnologia, caso as suas propriedades recém-descobertas sejam confirmadas em laboratório. Uma das possibilidades seria usá-lo na fabricação de dispositivos de escala nanométrica para armazenar informações. “As propriedades mecânicas e magnéticas da camada monoatômica de óxido de estanho dependem da quantidade de carga elétrica que o material recebe”, explica o físico Leandro Seixas, professor do Centro de Pesquisas Avançadas em Grafeno, Nanomateriais e Nanotecnologias (MackGraphe), da Universidade Presbiteriana Mackenzie, inaugurado oficialmente em março deste ano, em São Paulo. Seixas é o primeiro autor de um estudo teórico publicado em maio na revista Physical Review Letters mostrando que, ao alterar o potencial elétrico a que esse material é submetido, tor-

62  z  agosto DE 2016

na-se possível controlar o seu arranjo atômico e o grau de magnetização. “É a primeira vez que se prevê a existência de um material bidimensional com esse comportamento”, conta Seixas, que fez o trabalho em colaboração com Aleksandr Rodin, Alexandra Carvalho e Antônio Castro Neto, todos físicos do Centro para Materiais Avançados 2D e do Centro de Pesquisa do Grafeno da Universidade Nacional de Cingapura (NUS). Além de dirigir esses centros, Castro Neto é o pesquisador responsável pelo projeto “Grafeno: Fotônica e optoeletrônica. Colaboração UPM-NUS”, do programa São Paulo Excellence Chair (Spec) da FAPESP, sediado no MackGraphe. Uma grande transformação ocorre quando blocos de certos materiais sólidos são fatiados em laboratório em camadas cada vez mais finas até chegar à menor espessura possível. Foi o que descobriram os físicos Andre Geim e Konstantin Novoselov, em 2004, quando esfoliaram a grafite, o mineral que constitui o lápis, até produzirem uma folha feita de uma única camada de átomos de carbono – essa camada é o grafeno. Embora seja flexível e liso como uma folha de papel, o grafeno é mais resistente do que o aço. Também é capaz de conduzir eletricidade com uma eficiência milhares de vezes superior à do silício, matéria-prima de toda a tecnologia eletrônica atual, embora não permita controlar bem o fluxo de corrente elétrica. Essa característica dificulta a fabricação de um transistor de computador usando grafeno. De 2004 para cá, no entanto, já se identificaram outros materiais que, sob


imagens 1 leandro seixas / mackgraphe 2 christiano de matos / mackgraphe

condições especiais, são capazes de superar essas limitações. Também estão sendo estudadas formas de aperfeiçoar o encaixe de folhas de grafeno sobrepostas a outras estruturas bidimensionais e, assim, combinar as propriedades desses materiais. Uma das alternativas ao grafeno mais estudadas são as camadas de sulfeto de molibdênio (MoS2), com três átomos de espessura, descobertas em 2005. Mais recentemente, em 2014, pesquisadores descobriram também que o fósforo negro, um material sintético composto unicamente de átomos de fósforo, pode ser esfoliado até formar uma camada monatômica, o chamado fosforeno. Assim como o MoS2, tanto o fosforeno quanto o fósforo negro constituído de poucas camadas atômicas possuem algumas propriedades ópticas e eletrônicas superiores às do grafeno. As diferenças entre o fósforo negro e o grafeno ainda não foram completamente descobertas. Experiências realizadas este ano no MackGraphe, conduzidas pelo grupo do físico Christiano de Matos, em colaboração com pesquisadores do Instituto de Física Teórica da Universidade Estadual Paulista (Unesp), do Departamento de Física da Universidade Federal de Minas Gerais (UFMG) e do Centro para Materiais Avançados 2D da NUS, revelaram que os átomos das bordas de camadas de fósforo negro podem vibrar de maneira bastante diferente dos átomos das bordas do grafeno. Descritas em artigo publicado em julho na Nature Communications, essas vibrações de borda podem afetar a maneira como o fósforo negro dissipa calor e espalha a luz. Ainda é difícil dizer se as alterações na vibração podem ajudar ou atrapalhar o design de um dispositivo nanotecnológico, como um transistor ou um sensor de luz. “O que se torna claro”, relata Matos, “é que o projeto de qualquer dispositivo terá de levar essas vibrações de borda em consideração”. memórias bidimensionais

Físicos experimentais têm obtido camadas cada vez mais finas de SnO em laboratório, demonstrando que o material, dependendo de sua espessura, pode ser um excelente semicondutor ou um isolante de eletricidade. “A expectativa é de que algum grupo experimental consiga uma monocamada atômica de SnO ainda este ano e que possamos verificar nossas previsões”, espera Seixas.

Cristal de fósforo negro: as cores na borda superior indicam a intensidade de vibração (maior nas áreas em vemelho)

Óxido de estanho ganha propriedades magnéticas quando fatiado até chegar à espessura atômica As simulações em supercomputadores do comportamento dos átomos mostraram que, dependendo da quantidade de carga elétrica presente em uma camada monoatômica de SnO, o material se transforma em um ímã cujos polos poderiam ser controlados. Caso esse controle se mostre viável em experimentos, talvez seja possível usar o magnetismo para armazenar informações em uma superfície de óxido de estanho, de maneira semelhante ao que ocorre no disco rígido dos computadores atuais. Seixas e seus colegas demonstraram ainda que essa propriedade não seria exclusividade do SnO. Eles preveem que outros materiais, como o sulfeto de gálio (GaS) e o seleneto de gálio (GaSe), também podem ser igualmente magnetizados se estiverem na forma de camadas bidimensionais. “A magnetização de materiais bidimensionais é incomum”, relata Seixas. Ele explica que, embora materiais puros como o fósforo negro e o grafeno pos-

sam ter os átomos das bordas de suas camadas magnetizados em circunstâncias especiais, o centro de suas camadas só pode ser magnetizado com a adição de impurezas, como átomos de cobalto. Os cálculos da equipe de Seixas também sugerem que, dependendo da quantidade de carga elétrica circulando pelo material bidimensional, o arranjo atômico da camada de SnO pode sofrer uma deformação espontânea, que também poderia levar a alguma aplicação tecnológica. Os quadrados formados pelo arranjo dos átomos de estanho e oxigênio podem ser esticados, formando retângulos. “Assim como a magnetização, essas deformações podem se tornar controláveis por meio da densidade de carga elétrica no material”, explica. “Mas, diferentemente do que ocorre com a magnetização, ainda não sabemos explicar a origem dessas deformações nem se elas apareceriam em outros materiais.” n Igor Zolnerkevic Projetos 1. Grafeno: Fotônica e optoeletrônica. Colaboração UPM-NUS (nº 2012/50259-8); Modalidade Auxílio à Pesquisa – Programa SPEC; Pesquisador responsável Antonio Helio de Castro Neto (Universidade Presbiteriana Mackenzie); Investimento R$ 13.110.474,99 (para todo o projeto). 2. Efeitos plasmônicos e não lineares em grafeno acoplado a guias de onda ópticos (nº 2015/11779-4); Modalidade Auxílio à Pesquisa – Projeto Temático; Pesquisador responsável Christiano José Santiago de Matos (Universidade Presbiteriana Mackenzie); Investimento R$ 832.300,86 3. ICTP Instituto Sul-americano para Pesquisa Fundamental: Um centro regional para física teórica (nº 2011/11973-4); Modalidade Auxílio à Pesquisa – Projeto Temático; Pesquisador responsável Nathan Jacob Berkovits (Unesp); Investimento R$ 5.393.992,00.

Artigos científicos SEIXAS, L. et al. Multiferroic Two-Dimensional Materials. Physical Review Letters, v. 116, p. 206803. 20 mai. 2016. RIBEIRO, H. B. et al. Edge phonons in black phosphorus. Nature Communications. 14 jul. 2016.

pESQUISA FAPESP 246  z  63


INFORME PUBLICITÁRIO

ED. 06 - AGOSTO 2016

Nova tecnologia desenvolvida no Inpe melhora estimativas sobre queimadas

C

ientistas do Instituto Nacional de Pesquisas Espaciais (Inpe) contam com uma nova tecnologia para monitorar com precisão incêndios e queimadas no Brasil. Um algoritmo (ou comandos computacionais) desenvolvido no Inpe permite o mapeamento das áreas destruídas pelo fogo a partir de dados de sensoriamento remoto obtidos da Nasa, a Agência Espacial Norte-Americana. A nova ferramenta já foi adotada pelo Grupo de Monitoramento de Queimadas e Incêndios para gerar estimativas mais confiáveis, inclusive, retroativamente. Com base nas imagens de satélites, os pesquisadores conseguiam acompanhar os focos de incêndio, ou seja, o local da chama. Agora, é possível dimensionar a área tomada pelo

fogo ano a ano desde 2005 em cada bioma. Isso porque o algoritmo desenvolvido tem resolução espacial de 1 quilômetro quadrado. Segundo a pesquisadora Renata Libonati, que desenvolveu a ferramenta durante pós-graduação no Inpe, o Brasil usava tecnologia desenvolvida pela Nasa para todo o planeta. A desvantagem é que o sensoriamento em escala global, feito de forma generalizada, não considera as características de cada bioma, como tipo de vegetação, solo e clima. “Com esse algoritmo, nós conseguimos refinar as informações sobre as queimadas no Brasil”, diz Libonati. A ferramenta abre uma nova perspectiva para as ações de monitoramento e fiscalização do país. Além disso, permite que o Brasil avance nas políticas de controle de emissão de poluentes.

Estudo prevê “clima caótico” até 2100

O

clima tende a ficar com longos períodos secos e extremos de chuva intensa, com menor grau de previsibilidade, até 2100. O alerta foi feito pelo coordenador do INCT de Mudanças Climáticas, Carlos Nobre, durante lançamento do livro “Modelagem Climática e Vulnerabilidades Setoriais à Mudança do Clima no Brasil”, na 68ª Reunião Anual da Sociedade Brasileira para o Progresso da Ciência (SBPC), em julho deste ano, em Porto Seguro (BA).

“Os impactos e os riscos são tão grandes que, na minha opinião, não existe outra possibilidade que não seja a mais rápida redução de gases de efeito estufa, como a COP 21 [21ª Conferência do Clima] preconizou: zerar as emissões até 2050 ou 2060 e chegar a emissões negativas, ou seja, tirar CO2 [dióxido de carbono] da atmosfera”, afirmou o pesquisador. “Esse é um enorme desafio, mas é um problema do qual não temos como fugir se nós não quisermos entregar aos nossos netos e bisnetos um mundo muito difícil de viver.”


INFORME PUBLICITÁRIO

Conexões de 100 Gb/s entre Brasil e Estados Unidos entram em operação

D

uas novas conexões de 100 Gb/s entre São Paulo e Miami foram ativadas, ampliando a saída internacional da rede acadêmica brasileira, a Ipê. As novas conexões, em operação por meio de cabos submarinos nos oceanos Atlântico e Pacífico, fazem parte do projeto Amlight Express and Protect, financiado pela National Science Foundation (NSF), pela Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) e pela Rede Nacional de Ensino e Pesquisa (RNP), organização social ligada ao Ministério da Ciência, Tecnologia, Inovações e Comunicações. O consórcio Amlight gerencia as conexões entre Estados Unidos e América Latina para ensino e pesquisa. “Em 2017, outros seis links com a mesma capacidade entre

Miami e a América Latina devem entrar em operação”, informou o engenheiro de redes da Universidade Internacional da Flórida (FIU, em inglês) Jerônimo Bezerra. Segundo ele, as conexões internacionais de 100 Gb/s estabelecem novos parâmetros em conectividade de alto desempenho nas Américas e possibilitam oportunidades de colaboração científica. Uma das iniciativas beneficiadas será o projeto internacional de Astronomia Large Synoptic Survey Telescope (LSST), que conta com a participação de 50 pesquisadores brasileiros. O LSST é um telescópio em construção em Cerro Pachón, no Chile, previsto para entrar em operação em 2022 e que terá capacidade para fazer o mapeamento de quase metade do céu por um período de dez anos.

Lançamento de fibra óptica de 240 km leva internet para interior da Amazônia

U

m dos maiores projetos de fibra óptica subaquática do mundo, o programa Amazônia Conectada, completou um ano em julho com o primeiro trecho de 242,5 quilômetros concluído. A fibra interliga os municípios de Coari a Tefé via leito do Rio Solimões. A expectativa é que a infraestrutura de telecomunicações beneficie 144 mil pessoas nos dois municípios. Atualmente, a internet que chega às duas cidades é via satélite e tem custo elevado. E a rede de fibra óptica atende apenas Manaus. “É um projeto absolutamente estratégico. Nesse trecho, vai atender institutos como o Mamirauá, Instituto do Patrimônio Histórico e Artístico Nacional (Iphan) e a Universidade Federal do Amazonas, por exemplo. Os custos das conexões de satélites, que hoje sai por algo entre R$ 3 mil e R$ 5 mil o preço do megabyte, passarão, com o cabo óptico, a aproximadamente R$ 50 por mês. Teremos

aumento da velocidade e mais qualidade na comunicação por preços menores. É uma ideia estruturante para aquela região”, afirma o diretor-geral da Rede Nacional de Ensino e Pesquisa (RNP), Nelson Simões, organização social vinculada ao Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), parceira no desenvolvimento do programa, ao lado do Ministério da Defesa. O cabo subfluvial de 390 toneladas ligando os municípios faz parte da infovia do Rio Solimões, uma das cinco que serão construídas pelo governo federal por meio dos leitos dos rios que cortam a Amazônia. Somente no Solimões, 15 municípios serão atendidos. Mas a meta do programa é fazer mais. Redes subfluviais ópticas serão estendidas por aproximadamente 7,8 mil quilômetros dos principais rios, beneficiando 3,8 milhões de habitantes em 52 municípios.

Sem conexão Na região amazônica, a internet não chega a todos os municípios, o que prejudica os serviços públicos. Quando há conexão, a velocidade é lenta e o serviço, caro. Com as fibras subfluviais, o objetivo é oferecer 100 gigabytes por segundo, o que viabiliza uma série de serviços de rede de dados com a mesma qualidade encontrada em outras regiões do país: internet banda larga, telemedicina, ensino a distância, instituições de educação e pesquisa, e interconexão entre saúde. Além disso, o programa vai contribuir também para aperfeiçoar as comunicações militares na fronteira, trazendo ganhos para a defesa nacional.

Siga as ações do Ministério e as contribuições da ciência e da tecnologia para o desenvolvimento do Brasil. Acesse nosso site e nossas páginas nas redes sociais.

twitter.com/MCTIC

facebook.com/MCTIC

www.mcti.gov.br


tecnologia  nanotecnologia y

O

uso da nanotecnologia em roupas chegou à linha de produção. Há pelo menos três empresas do ramo têxtil no país – uma em São Paulo e duas em Santa Catarina – que oferecem roupas específicas para atividades físicas e tecidos com propriedades antimicrobianas para profissionais da saúde. Em Campinas, a EPI Saúde, uma startup abrigada na incubadora de empresas da Agência de Inovação Inova Unicamp, desenvolve tecidos com nanopartículas de prata (que confere propriedades bactericidas) e moléculas de fluorcarbono (que os torna hidrorrepelentes). Esse tipo de tecido já existe no mercado e agora vem sendo testado no Hospital de Clínicas da Universidade Estadual de Campinas (Unicamp) na forma de jalecos, aventais e outras vestimentas para profissionais da área da saúde. Também poderá vir a ser utilizado em lençóis, fronhas e roupas de pacientes. O projeto é resultado da união de interesses e experiência do fundador da EPI Saúde, Paulo Formagio, dono de outra empresa que já produz equipamentos de proteção individual para a área agrícola, e da médica endocrinologista Laura Sterian Ward, da Faculdade de Ciências Médicas da Unicamp. “Percebi que havia uma oportunidade na área da saúde”, conta o empresário. “Após a

análise de trabalhos científicos sobre contaminações hospitalares, busquei informações no setor médico da Unicamp. Essa busca mostrou a necessidade de equipamentos de proteção individual (EPI) mais eficientes do que os feitos de tecidos sem nenhum tipo de tratamento.” Laura, por sua vez, conta que resolveu se engajar no projeto depois que sua filha, atualmente no sexto ano de medicina, falou que gostaria de ir para a Libéria, na África, ajudar a tratar pacientes infectados com ebola. “Fiquei apavorada”, conta. “O EPI que os médicos e enfermeiras usam para lidar com doentes com esse vírus é uma espécie de roupa de astronauta, quente, incômoda, que dificulta os movimentos. Na área da saúde, não temos uma regulamentação clara a respeito de equipamentos de proteção e usamos apenas jaleco branco, luvas e máscaras comuns, que também são EPIs sem propriedades especiais.” A médica lembra que os profissionais da saúde estão sempre sujeitos à contaminação. Dependendo dos procedimentos que executam, são expostos a secreções humanas e produtos químicos (como quimioterápicos) que podem causar infecções, alergias e outros problemas. “Usar EPI adequado protege o profissional, o paciente e a comunidade”, afirma Laura, pesquisadora responsável pelo projeto. Os riscos das infecções

Tecidos antimicrobianos que também repelem líquido podem proporcionar mais segurança para profissionais da saúde

Proteção extra Evanildo da Silveira

66  z  agosto DE 2016


hospitalares também não são desprezíveis. Há pouquíssimos dados epidemiológicos no Brasil sobre a prevalência de infecção hospitalar. Um dos estudos mais citados ainda hoje, por falta de outros, é um trabalho de 1995 que investigou 99 hospitais terciários no Brasil e se achou uma prevalência de 15,5% de infecções hospitalares. “O EPI que estamos desenvolvendo poderá ajudar a diminuir esse índice.” Daí a conveniência de agregar propriedades hidrorrepelentes e antimicrobianas aos tecidos usados cotidianamente nos hospitais (ver Pesquisa FAPESP nºs 130 e 206). Para adquiri-las, o material têxtil é imerso em uma calda, a uma temperatura entre 190ºC e 200ºC, contendo nanopartículas de fluorcarbono e prata. Depois o tecido passa por uma secadora e fica disponível para confeccionar uniformes, jalecos e aventais. Segundo Paulo Formagio, as nanopartículas podem ser agregadas diretamente aos fios, separadamente, ou ao tecido. “Isso pode ser feito em qualquer tipo de têxtil, mas nesse projeto usamos dois tecidos, um com 50% de algodão e 50% de poliéster e outro só com este último material”, explica. A capacidade de repelir líquidos é dada pelo fluorcarbono. A prata combate os microrganismos ao perfurar a membrana celular de bactérias, liberando íons dentro delas, o que as impede de se reproduzirem.

léo ramos

Tecido hidrorrepelente e bactericida, com nanopartículas de prata

pESQUISA FAPESP 246  z  67


Com os tecidos recobertos de nanopartículas foram confeccionados jalecos, aventais e uniformes, testados por 22 profissionais da enfermaria de Moléstias Infecciosas do HC-Unicamp e oito biólogos do Departamento de Clínica Médica. “Primeiro elaboramos um questionário para os técnicos e enfermeiros”, conta Laura. “Queríamos saber qual a consciência de risco eles tinham e como viam o uso de um EPI.” Depois foram fornecidas as vestimentas, usadas durante três meses. Em seguida, todos foram submetidos a um novo questionário que avaliou a usabilidade da roupa (facilidade de vestir, adequação para as rotinas de trabalho). O infectologista e diretor clínico do HC, Plínio Trabasso, acompanhou todo o experimento. “Os equipamentos foram aprovados pelos usuários nos quesitos referentes à usabilidade, conforto e tolerância às variações de temperatura”, conta. “Ou seja, constatou-se que o EPI não atrapalha as atiO tecido vidades diárias dos proimpregnado fissionais, tais como dar banho nos pacientes, fazer com prata inibe curativos, entre outros.” As nanopartículas permaa proliferação necem na roupa por 50 lavagens, podendo chegar a de bactérias, 70. Depois disso, o tecido bolor e evita já está desgastado e não é viável – nem técnica nem mau cheiro economicamente – fazer um novo tratamento. Seem roupas e gundo Laura, o EPI especial tem durabilidade sisapatos milar à da roupa comum. “Mas, como o tecido tratado suja menos, os jalecos tendem a durar mais tempo.” As vestimentas normalmente usadas nos centros cirúrgicos na maior parte dos hospitais são feitas de pano comum. vitro. A equipe também pretende submeter o Apenas em alguns tipos de procedimento a equipe tecido a um teste de desafio, expondo-o a granmédica recebe um avental impermeável, como em des quantidades de bactérias e fungos para ver partos ou cirurgia ortopédica, em que há muito qual a resposta. “Essas duas fases dependem de contato com sangue. Alguns hospitais fornecem um investimento maior, que ainda não temos.” aventais descartáveis, mas sem maior proteção. Trabasso faz boa avaliação do projeto em curso, mas considera que os jalecos e aventais convencionais usados hoje são adequados para protefase de investimentos O projeto terá ainda mais duas fases. Uma con- ção dos profissionais. “O que estamos propondo siste na adaptação da tecnologia para diferen- é uma proteção extra”, diz. “Precisamos provar tes usos, incluindo viseira, calçados e luvas, por que é eficiente e tem custo-benefício adequado. exemplo. “Serão realizados testes de laborató- A proteção hidrorrepelente pode proporcionar rio para medirmos o grau de contaminação das ganhos em termos de eficiência em situações esroupas durante o uso rotineiro”, explica Laura. pecíficas, como em cirurgias ou procedimentos Até agora essa avaliação foi realizada apenas in com grande exposição a sangue.” A previsão de 68  z  agosto DE 2016

1

2

3

Linha de produção da empresa EPI Saúde, em Campinas: processo de tratamento do tecido com fluorcarbono e nanopartículas de prata


Tecido com tratamento

Tecido normal

Comparação entre o tecido comum, à esquerda, e o impermeável. A ação repelente fica preservada por até 50 lavagens

4

custos por jaleco, por exemplo, está entre R$ 70 e R$ 80, segundo Paulo Formagio, da EPI Saúde. “Isso representa R$ 5 a mais do que os jalecos comuns.”

fotos  1,2 e 3 Paulo S Formagio/epi saúde 4 léo ramos

empreendedorismo inovador

Outras duas empresas que produzem tecidos incorporaram a nanotecnologia na sua produção. No Centro Empresarial para Laboração de Tecnologias Avançadas (Celta), incubadora da Fundação Certi, em Florianópolis (SC), está instalada a TNS Nanotecnologia, que produz nanopartículas de prata, entre outros diferentes aditivos antimicrobianos, para serem incorporadas a tecidos, tintas, plásticos, equipamentos médicos e cerâmicos. A empresa foi criada em 2009 por um grupo de estudantes de química e engenharia da Universidade Federal de Santa Catarina e ganhou, no ano passado, o Prêmio Nacional de Empreendedorismo Inovador, na categoria Melhor Empresa Incubada, concedido pela Associação Nacional de Entidades Promotoras de Empreendimentos Inovadores (Anprotec). A TNS não tem produtos de prateleira e vende as nanopartículas para companhias que incorporam a tecnologia em seu produto final, como tecidos e calçados. O diretor administrativo Gabriel Nunes conta que vende seu produto para fabricantes de fios sintéticos e de algodão, tinturarias e empresas têxteis. A principal aplicação das nanopartículas da TNS nesse mercado é para a confecção de meias, forros e palmilhas de calçados, toalhas, capas de colchões, travesseiros, lençóis, cortinas,

carpetes e roupas de trabalho (jalecos e macacões profissionais). “Uma das principais vantagens do material impregnado com a prata é a inibição da contaminação cruzada da proliferação microbiana, o que evita a formação de bolor e mofo, e combate o mau cheiro de roupas e calçados causado por bactérias”, explica Nunes. “Com isso as pessoas podem usar uma roupa por várias horas ou dias (no caso de esportistas) sem esse problema. O material resiste por até 50 ou mais lavagens sem perder suas propriedades antimicrobianas.” Em Joinville, também em Santa Catarina, fica a Diklatex Industrial Têxtil, empresa que produz malhas com nanopartículas de diversos materiais, para confecção de roupas esportivas. Entre eles está o silicone, que confere maior durabilidade e maciez aos tecidos, e hidrofilizantes, que absorvem a umidade do corpo, como o suor, e a libera no ambiente. Também são usadas essências nanoencapsuladas que perfumam as roupas, além da prata. No caso da Diklatex, as nanopartículas são importadas de empresas europeias. De acordo com um comunicado da empresa, o segmento de roupa esportiva tem crescido, e junto com ele a procura por peças que possam proporcionar maior conforto durante os exercícios físicos. O mercado para vestimentas médicas com nanopartículas também é grande. Paulo Formagio, da EPI Saúde, calcula que o número total de profissionais da saúde, incluindo auxiliares, técnicos e pessoal de apoio, chegue a 2,6 milhões de pessoas, além de outros 300 mil na área de veterinária. n pESQUISA FAPESP 246  z  69


FOTÔNICA y

Pesquisadores brasileiros quebram recorde de transmissão de dados por fibra óptica sem o uso de amplificadores eletrônicos de sinal

Everton Lopes Batista

70  z  agosto DE 2016

U

m grupo de pesquisadores brasileiros estabeleceu um novo recorde de distância e taxa de transmissão de dados enviados por uma fibra óptica. Usando 10 canais na mesma fibra, cada um com capacidade de tráfego de 400 gigabits por segundo (Gbps), a equipe coordenada pelo engenheiro eletricista Jacklyn Dias Reis, do Centro de Pesquisa e Desenvolvimento em Telecomunicações (CPqD), em Campinas, conseguiu fazer uma quantidade enorme de dados viajar por 370 quilômetros (km) de fibras ópticas e chegar íntegra ao destino. É a primeira vez que se faz a informação codificada na forma de luz, com essa configuração de fibra óptica, chegar tão longe sem a ajuda de repetidores, equipamentos instalados ao longo do percurso para amplificar o sinal. A taxa de transferência de dados usada no teste seria suficiente para baixar, em apenas 1 segundo, 170 horas de filmes ou séries de TV gravadas em alta definição (HD). De modo geral, os amplificadores de sinal são imprescindíveis para que dados viajem em fibras ópticas por distâncias superiores a 80 km. Isso ocorre porque a luz perde intensidade à medida que avança pela fibra. Instalados a distâncias específicas, os amplificadores fornecem energia para o sinal, garantindo que a informação chegue com qualidade até seu destino. A necessidade de usar amplificadores em transmissões por distâncias maiores que 80 km torna difícil levar internet de alta qualidade e velocidade a comunidades de lugares muito afastados, como ilhas ou a Floresta Amazônica. Nesses trajetos não existem fontes de energia para alimentar os amplificadores e a manutenção periódica é praticamente inviável. O custo da infraestrutura para fazer a internet de alta qualidade chegar a essas regiões pode inviabilizar a iniciativa, de acordo com Jacklyn, que é coordenador da área de Tecnologias Ópticas do CPqD. O estudo também contou com pesquisadores da Faculdade de Engenharia Elétrica e da Computação (FEEC) da Universidade Estadual de Campinas (Unicamp). Os pesquisadores usaram no experimento uma configuração com três fontes de laser. Uma para envio dos dados e as duas outras fontes, uma em cada extremidade da fibra, serviram para “bombeio”, o que significa energizar dois amplificadores ópticos localizados ao longo da conexão. Os amplificadores ópticos não usam eletricida-

miguel boyayan

Informação muito mais rápida


de como os eletrônicos, mas recebem energia proveniente da fibra óptica que corre em paralelo com a fibra transmissora. Isso faz amplificar o sinal do laser e ter o mesmo desempenho anterior. Os amplificadores ópticos são conhecidos no jargão técnico como EDFA (Erbium Doped Fiber Amplifier). Ele é formado por uma fibra de 10 metros contendo o elemento químico érbio em sua composição, permitindo que a energia das fontes extras de laser das outras duas fibras seja transferida para o sinal, aumentando sua intensidade. Essa estratégia utilizou uma técnica já conhecida chamada de bombeamento remoto que permitiu eliminar o uso dos amplificadores eletrônicos. “O sinal enviado chegou exatamente igual no receptor, sem erros”, conta João Carlos Soriano Sampaio, engenheiro eletricista do CPqD e um dos autores do experimento. As fibras ópticas utilizadas são mais espessas do que as usadas pelas empresas de telecomunicação em suas redes e com menor índice de atenuação do sinal. Cerca de 40% mais caros do que as fibras ópticas padrão, esses dispositivos são os mesmos usados em conexões submarinas entre continentes e reduzem a perda de energia do sinal durante o caminho. necessidades do mercado

Marcelo Martins Werneck, engenheiro eletricista que coordena o Laboratório de Instrumentação e Fotônica (LIF), da Universidade Federal do Rio de Janeiro (UFRJ), avalia que a transmissão realizada pelo grupo do CPqD é inovadora pela alta velocidade de envio e pela distância alcançada. Werneck afirma que vários grupos de pesquisa perseguem resultados como esse porque o mercado precisa da tecnologia de transmissão sem amplificador eletrônico. Para uma ligação submarina entre continentes, por exemplo, é necessário instalar o amplificador no fundo do mar e ainda levar um cabo com energia elétrica para alimentar o aparelho, explica o engenheiro. A manutenção, em caso de defeito, é feita por um robô

o experimento atingiu a marca de 370 km e foi realizado dentro de um laboratório do CPqD com fibras ópticas enroladas em carretéis de 50 km cada um

que busca o cabo no fundo do mar e o leva à superfície para que os técnicos realizem o reparo a bordo de um navio. O serviço sai por cerca de US$ 100 mil por dia. “Com a transmissão feita sem o uso de amplificadores eletrônicos, o risco de defeito seria menor. Existiriam menos equipamentos que poderiam apresentar problemas espalhados pelo caminho.” Um possível mercado para esses aparatos de transmissão de dados ultrarrápidos por longas distâncias, segundo Sampaio, é o da exploração de petróleo em alto-mar. As empresas precisam conectar suas plataformas às bases em terra e a estratégia usada pelo CPqD permitiria eliminar os amplificadores – algumas plataformas da Petrobras, por exemplo, estão a mais de 200 km da costa. A Padtec, empresa de desenvolvimento, fabricação e comercialização de sistemas de comunicações ópticas instalada em Campinas e ligada ao CPqD, já provê o mercado com essa tecnologia de transmissão sem amplificadores eletrônicos, mas com alcance menor e velocidade mais baixa.

Além de aprimorar todo o aparato, os pesquisadores também usaram modelos matemáticos para analisar os fatores que poderiam influenciar a transmissão de informação. Formado por nove pesquisadores de diferentes especialidades, o grupo escolheu a melhor configuração das técnicas de transmissão, processamento digital de sinais e correção de erros para reproduzir o experimento no laboratório. Os sistemas de transmissão e de recepção, além dos 370 km de fibra óptica, enrolados em carretéis de 50 km, foram instalados em um laboratório do CPqD, em Campinas. O resultado desse experimento foi publicado on-line em 18 de julho no periódico IEEE Photonics Technology Letters. E os pesquisadores prometem não parar por aí. “Queremos enviar sinais com taxas de transmissão de dados maiores por distâncias ainda mais longas”, afirma Sampaio. n Artigo científico Januário, J. C. S. S. et al. Unrepeatered transmission of 10×400G over 370 km via amplification map optimization. IEEE Photonics Technology Letters. On-line. 18 jul. 2016.

pESQUISA FAPESP 246  z  71


pesquisa empresarial y

A química do futuro A Basf mantém no país dois laboratórios globais e estrutura de pesquisa voltada principalmente para o agronegócio e a construção civil Yuri Vasconcelos

P

resente no país há mais de 100 anos, a Basf é uma das empresas químicas líderes em inovação no mundo. O Brasil, responsável por cerca de 60% dos negócios na América do Sul, participa do ecossistema global de pesquisa e desenvolvimento (P&D) do grupo, cuja sede é em Ludwigshafen am Rhein, na Alemanha. A unidade brasileira abriga dois laboratórios de classe global e se destaca pelas atividades inovativas voltadas à agricultura, como as culturas de soja e cana-de-açúcar, e ao segmento de tintas imobiliárias, aquelas que são usadas na pintura de paredes de imóveis. Uma das mais recentes tecnologias criadas pelos pesquisadores brasileiros é a soja Cultivance, a primeira variedade geneticamente modificada totalmente desenvolvida no país. Fruto de uma parceria de 10 anos com a Empresa Brasileira de Pesquisa Agropecuária (Embrapa), ela começou a ser comercializada em ju-

nho deste ano e já está aprovada para uso na União Europeia e em quase outros 20 países. “A soja Cultivance foi a primeira variedade na área de biotecnologia vegetal aprovada comercialmente em toda a Basf. Esse lançamento revela a importância do Brasil no contexto global de inovação do grupo”, afirma o gerente de Tecnologia e Inovação, Rony Akio Sato. Segundo ele, o Sistema de Proteção Cultivance é ideal para o manejo integrado de espécies invasoras nos cultivos. “Ele combina cultivares de soja geneticamente modificada, de potencial genético competitivo, ao uso do herbicida de amplo espectro para controle de plantas daninhas de folhas largas e gramíneas”, explica Daniela Contri, gerente de Inovação e Estratégia para a América Latina. Outra tecnologia desenvolvida no país foi o sistema AgMusa, direcionado à cultura da cana-de-açúcar. Trata-se de um sistema tecnológico para a renovação de

canaviais com alto rendimento, por meio da produção de mudas sadias de cana-de-açúcar a partir de viveiros formados com variedades obtidas de empresas e instituições especializadas em melhoramento genético. As mudas passam por um tratamento que lhes garante alto vigor, além de uma identidade genética homogênea para a formação de viveiros. O sistema permite a introdução de um novo cultivar no campo de forma acelerada. No método convencional de multiplicação e formação de viveiros, o produtor trabalha em uma nova variedade durante seis anos antes do uso comercial. Com o sistema AgMusa, o tempo cai pela metade. “Essa tecnologia propicia rápida expansão de novas variedades de cana-de-açúcar com maior potencial produtivo”, conta Daniela Contri. No setor da construção civil, uma das principais inovações regionais da Basf é a tinta antibactéria Suvinil Família Protegida, que reduz até 99% de microrga-

72  z  agosto DE 2016

072-075_Basf_246.indd 72

8/11/16 4:09 PM


A partir da esquerda: Adriana Moura, Marlon Santos, Chrystiane Nunes, Rony Sato, Daniela Contri, Nina Traut

léo ramos

empresa nismos nas paredes por um período de dois anos – a Basf adquiriu o controle da Suvinil em 1969 e incorporou suas atividades de P&D. O produto tem selo de aprovação da Agência Nacional de Vigilância Sanitária (Anvisa). Também na linha Suvinil, a empresa desenvolveu uma tinta acrílica para pinturas externas, fabricada com resinas especiais, que reduz o acúmulo de sujeira na parede e protege contra a ação do vento, e outra tinta com alta concentração e rendimento, denominada Max Rendimento. “A fim de mostrar aos clientes suas inovações voltadas ao mercado imobiliário, a Basf construiu em São Paulo sua primeira casa de eficiência energética em um país de clima tropical – existem outras nove unidades pelo mundo em cidades de clima frio ou temperado”, diz a gerente de Inovação Corporativa, Nina Traut. Batizada de Casa Ecoeficiente ou CasaE, é um projeto que contempla soluções para a redução de consumo de água,

energia e emissão de CO2. O imóvel de 400 metros quadrados exibe 36 produtos criados pela Basf mundial e soluções de 29 empresas parceiras – metade delas brasileiras (Gerdau, Tigre, Deca, Tecmar, entre outras). São pisos drenantes construídos com concreto permeável ou compostos de poliuretano de alta permeabilidade para passagem de água, além de pigmentos frios aplicados em tintas que ajudam a regular a temperatura do ambiente. “Graças ao uso de materiais construtivos diferenciados, a economia de energia da CasaE pode chegar a 70%”, diz Sato. O projeto recebeu certificação LEED-NC Gold (Leadership in Energy and Environmental Design), concedida a novas construções sustentáveis pela Green Building Council, organização presente em mais de 90 países que visa fomentar a indústria de construção sustentável no mundo. As atividades de P&D no Brasil se iniciaram na década de 1950 com a instala-

Basf

Centro de P&D São Paulo, SP

Nº de funcionários 4,2 mil no país

Principais produtos Sementes de soja, mudas de cana-de-açúcar, tintas para imóveis, defensivos agrícolas, insumos para medicamentos e ingredientes para plásticos

pESQUISA FAPESP 246  z  73

072-075_Basf_246.indd 73

8/11/16 4:09 PM


1

ção dos primeiros laboratórios de desenvolvimento de aplicações, que visavam à transferência de tecnologia. Hoje, a Basf conta no Brasil com 4,2 mil colaboradores, distribuídos no escritório central em São Paulo e em nove unidades industriais. A multinacional não revela o número de colaboradores envolvidos com P&D no país, nem o valor investido na área. Informa que o perfil da equipe dedicada à atividade de P&D é diverso e compreende agrônomos, químicos, biólogos, engenheiros químicos e farmacêuticos. Mais de 80% deles têm graduação, sendo 11% mestres e 3% doutores – três em cada 10 pesquisadores são do sexo feminino. Declara ainda que interage anualmente com cerca de 60 a 80 instituições de pesquisa nacionais na busca

por inovações. São parceiros da Basf, além da Embrapa, as universidades estaduais Paulista (Unesp), de Campinas (Unicamp) e de Maringá (UEM). Classe internacional

Localizada no interior paulista, a fábrica de Guaratinguetá é o maior complexo químico da multinacional na América do Sul. Ela responde pela produção de 1.500 diferentes itens e abriga um dos dois centros mundiais de pesquisa do grupo no país, o Laboratório Global de Meio Ambiente e Segurança Alimentar (Gencs, em inglês). “No Gencs são realizados estudos para avaliação de resíduos de defensivos agrícolas nos alimentos, além de estudos ambientais exigidos pelas autoridades reguladoras brasileiras

Instituições que formaram os pesquisadores da empresa Rony Akio Sato, engenheiro químico, gerente de Tecnologia e Inovação

Universidade Presbiteriana Mackenzie: graduação Universidade de São Paulo (USP): mestrado

Nina Traut, química, gerente de Inovação

Universidade de Colônia (Alemanha): graduação Universidade de Colônia (Alemanha): doutorado

Marlon Sandro Santos, químico, gerente de Desenvolvimento Técnico

Universidade Federal de Juiz de Fora (UFJF): graduação Universidade Federal do Rio de Janeiro (UFRJ): mestrado UFRJ/Universidade de Bayreuth (Alemanha): doutorado

Adriana Moura, advogada, gerente de Propriedade Intelectual

Faculdade de Direito Milton Campos: graduação Pontifícia Universidade Católica de Minas Gerais (PUC-MG): mestrado

Chrystiane Nunes, química, coordenadora de projetos em compras

Faculdades Oswaldo Cruz: graduação

Daniela Contri, farmacêutica-bioquímica, gerente de Inovação e Estratégia para Pesquisa e Desenvolvimento da divisão Agrícola América Latina

Faculdade de Ciências Farmacêuticas da USP: graduação Faculdade de Ciências Farmacêuticas da USP: mestrado

e internacionais para registro de novos produtos e extensão de uso dos já existentes”, informa Sato. Ele explica que esses estudos se iniciam ainda no campo, quando os cientistas simulam qual é a recomendação de uso dos defensivos em cada cultivo específico de interesse (café, milho, hortifrútis etc.). Depois, os pesquisadores coletam amostras vegetais e as enviam para análise em laboratório. Nessa fase, as amostras são processadas e analisadas utilizando-se técnicas de purificação e quantificação. “Com base nos resultados dos estudos de resíduos e nos dados toxicológicos é feita a comprovação da segurança alimentar, assegurando que as inovações da Basf para o setor agrícola cumprem com os requisitos regulatórios e de sustentabilidade.” Desde 2001, o Gencs possui reconhecimento do Instituto Nacional de Metrologia, Qualidade e Tecnologia (Inmetro) em Boas Práticas de Laboratório, o que garante a rastreabilidade e a confiabilidade dos estudos conduzidos no local. O outro laboratório de classe internacional no Brasil é a Estação Experimental Agrícola de Santo Antônio de Posse, na região de Campinas. Fundada há 35 anos, ela ocupa 110 hectares e é o maior espaço físico de pesquisa da companhia no mundo. A estação responde por 45% das pesquisas no país. Criada com o objetivo de descentralizar os estudos na área agrícola que inicialmente eram feitos exclusivamente na Alemanha, o centro de pesquisa é o único do gênero abaixo da linha do Equador. Lá, são desenvolvidos defensivos agrícolas para os cultivos de soja, cana, milho, café, arroz, feijão, entre outras culturas, e testadas as atividades biológicas de defensivos contra ervas daninhas, doenças e pragas que atacam as plantações. A estação pertence à Unidade de Proteção de Cultivos, responsável pelo desenvolvimento do Sistema de Produção Cultivance e do AgMusa. A estrutura de pesquisa da Basf no país também conta com o Centro de

fotos 1 divulgação / basf 2 Juliana Tahira 3 João Athaíde

Laboratório Global de Meio Ambiente e Segurança Alimentar, em Guaratinguetá (SP): avaliação de resíduos de defensivos agrícolas

74  z  agosto DE 2016

072-075_Basf_246.indd 74

8/11/16 4:09 PM


Aplicações de Nutrição e Saúde, único do gênero da empresa na América do Sul. Localizado em Jacareí (SP), ele é dotado de um laboratório farmacêutico especializado na elaboração de formas farmacêuticas sólidas e uma cozinha-laboratório, intitulada Newtrition, para desenvolver tecnologias e protótipos alimentares, focada no setor de panificação, biscoitos e confeitaria.

Pisos drenantes feitos de poliuretano ou concreto instalados na Casa Ecoeficiente, em São Paulo

INOVAÇÃO GLOBAL

A área de inovação da Basf é composta por mais de 70 centros globais de P&D e 10 mil pesquisadores, o equivalente a 10% de seu quadro funcional. Em 2015, a linha de pesquisa da multinacional abrangeu cerca de 3 mil projetos e recebeu investimentos de € 1,95 bilhão (cerca de R$ 7 bilhões). O valor equivale a aproximadamente 3% de suas vendas globais, de € 70 bilhões (R$ 251 bilhões) – desse total, € 10 bilhões (R$ 35,9 bilhões) são provenientes de inovações em produtos. Dona de um portfólio composto por 8 mil famílias de produtos, que se desdobram em 60 mil aplicações, a empresa fabrica desde químicos, plásticos e defensivos agrícolas até insumos para medicamentos e tintas imobiliárias. O foco da companhia não são produtos de prateleira,

2

destinados ao consumidor – como as antigas fitas cassete Basf, um dos itens de maior visibilidade da empresa no Brasil –, mas insumos, formulações, ingredientes, matérias-primas e intermediários para diversos setores produtivos. Entre as inovações nascidas nos centros de pesquisa da multinacional no exterior, há o pigmento indigo blue que confere a cor azulada às calças jeans e é usado pelas indústrias têxteis; o poliestireno e os insumos empregados na fabri-

cação de brinquedos de plástico, como as peças do Lego. “A busca por inovação é constante na Basf”, afirma Sato. Prova disso, segundo ele, é que são depositadas anualmente 1,3 mil patentes, em média. “Há cinco anos, somos líderes do Patent Asset Index, um índice global criado pelas principais indústrias químicas – Bayer, Dow, Du Pont, Evonik e Basf – para medir o valor das patentes em termos de competitividade tecnológica de impacto nos negócios e mercado”, afirma. n Fachada da Casa Ecoeficiente (CasaE): soluções que economizam 70% no gasto com energia

3

pESQUISA FAPESP 246  z  75

072-075_Basf_246.indd 75

8/11/16 4:09 PM


Na representação artística, coágulo se dissolve sob a ação de medicamentos, a forma tradicional, e nem sempre eficaz, de desobstruir artérias

cardiologia y

Ultrassom contra o infarto Em teste inicial, terapia restabeleceu o fluxo sanguíneo no músculo cardíaco em 60% dos casos Ricardo Zorzetto

U

ma nova estratégia para restaurar o fluxo de sangue nas paredes do coração e reduzir a morte do músculo cardíaco decorrente do infarto está em teste no Instituto do Coração (InCor) da Universidade de São Paulo (USP). Quem sofre o primeiro infarto e chega ao instituto até seis horas após o início da dor no peito pode ser convidado a passar por um procedimento extra e inovador que promete diminuir os danos cardíacos. O tratamento se chama sonotrombólise e é uma adaptação do ultrassom cardíaco, um exame de imagem que permite observar os movimentos e a integridade do coração. Indolor, exceto pela picada de uma agulha no braço, a terapia consiste em injetar na corrente sanguínea de 3 a 5 mililitros de um líquido opaco, contendo bilhões de microbolhas de gás, e, segundos depois, aplicar sobre o coração uma sequência de pulsos de ultrassom muito breves e de alta intensidade – a diferença entre o ultrassom usado no exame e o usado na sonotrombólise está na intensidade dos pulsos, mais elevada no último caso.

76  z  agosto DE 2016

Inaudíveis para os seres humanos, as ondas acústicas do ultrassom fazem as microbolhas vibrarem até explodir. Quando se rompem, elas produzem uma pressão que, sem danificar as artérias, desfaz o coágulo em pedaços menores do que uma hemácia, a célula que distribui oxigênio pelo organismo e circula até pelos mais estreitos vasos sanguíneos, os capilares (ver infográfico). Sem o coágulo, o sangue volta a fluir e restabelece a chegada de oxigênio e nutrientes ao músculo cardíaco. “É como usar dinamite para esmigalhar uma parede de concreto em escala microscópica”, resume o cardiologista Wilson Mathias Júnior, diretor do Serviço de Ecocardiografia do InCor e coordenador do ensaio clínico que avaliou a segurança e a eficácia da sonotrombólise. “Esta é a primeira vez que o tratamento é testado em seres humanos.” No InCor, a equipe de Mathias selecionou 30 pessoas que haviam sofrido o primeiro infarto e as convidou para participar da avaliação da técnica. Assim que chegaram ao hospital, todos re-

ceberam a medicação tradicionalmente usada para reduzir a formação de coágulos: heparina, ácido acetilsalicílico e clopidogrel. Na sequência, enquanto aguardavam o cateterismo, os participantes passaram por uma de duas possíveis intervenções. Vinte receberam a injeção de microbolhas seguida de pulsos de alta intensidade de ultrassom. Os outros 10 também receberam as bolhas, mas acompanhadas de pulsos de baixa intensidade, usados para produzir imagens do coração. Os pesquisadores mediram o desempenho da sonotrobólise ao confrontar os dados dessas 30 pessoas com os de outras 70, que só receberam medicação anticoagulante e passaram por cateterismo para o implante de um stent, cilindro de tela metálica que mantém a artéria desimpedida. Metade das pessoas do primeiro grupo apresentou melhora na circulação cardíaca antes mesmo do implante do stent. Um mês mais tarde a circulação no músculo cardíaco permanecia boa em 12 das 20 pessoas (60%) tratadas com as microbolhas e o ultrassom. O mesmo


Para o sangue correr novamente Explosão de microbolhas por pulsos de ultrassom desfaz coágulos sanguíneos que se formam após o infarto Vaso preparado para o implante

Microbolhas

Stent

Coágulo

Artéria coronária

Gordura

Capilar

Coração em agonia

Coágulo

infarto 1 OO acúmulo de gordura na parede das artérias reduz a passagem de sangue, que começa a coagular e entope os vasos mais estreitos (capilares), matando as células do músculo cardíaco

imagem  ALFRED PASIEKA / SCIENCE PHOTO LIBRARY infográfico  ana paula campos  ilustraçãO pedro hamdan

3

Microbolhas

resultado foi alcançado por apenas uma das 10 pessoas que haviam recebido os pulsos menos intensos e por 16 das 70 (23%) do grupo de controle, segundo artigo publicado em maio no Journal of the American College of Cardiology. Após essa primeira fase, outras 15 pessoas já passaram pelo procedimento no InCor, e a equipe de Mathias espera chegar logo a 100. O pesquisador sabe que, só com a avaliação de mais casos, poderá ter uma ideia mais precisa da eficácia da técnica. “O mais importante no momento é mostrar que o procedimento é seguro e pode gerar benefício”, afirma. “Mais adiante será preciso realizar um ensaio clínico maior, com outros centros.” “Já tínhamos visto nos testes pré-clínicos que o ultrassom de alta intensidade era capaz de recanalizar as artérias coronárias e os vasos menores, que compõem a microcirculação”, conta o cardiologista Thomas Porter, do Centro Médico da Universidade de Nebraska, nos Estados Unidos, coautor do estudo. Porter coordena a equipe norte-americana que colabora com o grupo do InCor. Foi du-

2

o Cateterismo Por um vaso do braço ou da perna, o médico introduz um cateter com um balão que comprime as placas de gordura contra as paredes da artéria. Em seguida, implanta um cilindro metálico (stent) que a mantém aberta

A sonotrombólise O médico injeta microbolhas de gás na circulação e aciona pulsos de ultrassom que as fazem explodir. A pressão do rompimento desmancha o coágulo em artérias e capilares

rante uma temporada em Nebraska em 2006 que a médica brasileira Jeane Mike Tsutsui, do grupo de Mathias, demonstrou que o ultrassom de alta intensidade desfazia os coágulos no coração de cães submetidos a um modelo experimental de infarto. “Ficamos satisfeitos em ver um resultado semelhante nesse estudo inicial com seres humanos”, diz Porter. “Até o momento, não observamos complicações”, completa Jeane Tsutsui. A sonotrombólise animou os pesquisadores por resolver um problema que nem o cateterismo com o implante de stent solucionou: restabelecer a microcirculação do coração, o fluxo pelos vasos de menor calibre, que estão em contato íntimo com as células e permitem a chegada de oxigênio e nutrientes. Estudos anteriores já mostraram que metade das pessoas que passam por cateterismo e recebem stents continua com a microcirculação obstruída por coágulos. “Essa questão ainda não foi resolvida pelas terapêuticas que compõem o estado da arte do tratamento do infarto”, informa Porter. “Já o ultrassom com as microbolhas diminuiu o problema.”

Fonte  Wilson mathias jr / incor

Mathias e Porter já iniciaram negociações com um fabricante de equipamentos de ultrassom para tentar tornar os aparelhos portáteis. A redução de tamanho permitiria usar a sonotrombólise em ambulâncias e unidades básicas de saúde e inicar o tratamento do infarto mais cedo. Para Mathias, essa disseminação pode ajudar a reduzir os danos do infarto em países como o Brasil, onde há cerca de 250 mil casos por ano. “Aqui”, diz Mathias, “apenas 30% das pessoas que sofrem infarto têm acesso aos medicamentos para evitar a formação de coágulos e 5%, ao cateterismo”. n

Projeto Uso terapêutico do ultrassom na doença arterial coronária aguda e crônica (nº 2010/52114-1); Modalidade Auxílio à Pesquisa – Projeto Temático; Pesquisador responsável Wilson Mathias Júnior (InCor-USP); Investimento R$ 1.295.020,45.

Artigo científico MATHIAS JR., W. et al. Diagnostic ultrasound impulses improve microvascular flow in patients with STEMI receiving intravenous microbubbles. Journal of the American College of Cardiology. 67;21. 2016.

pESQUISA FAPESP 246  z  77


Engenharia de materiais y

Reciclagem de pneus Dois projetos criam alternativas para o reaproveitamento da borracha

D

e cada 100 pneus que são tro­ cados no Brasil, cerca de 55 são levados de volta pelos proprietários para uso como estepe ou outra utilização, de acordo com os dados da Associação Nacional da Indústria de Pneumáticos (Anip). Os outros 45 acabam nos postos de coleta por não terem mais condição de uso. Desses, 67% são utilizados como combustível alternativo em fornos da indústria de cimento, gerando energia para a fabricação de clínquer, a principal matéria-prima do setor. Os 33% restantes vão para reciclagem e dão origem a produtos como pisos de quadras esportivas, grama sintética, tapetes de automóveis e solas de sapato. Dois projetos de pesquisa, um da Universidade Federal do ABC (UFABC) e outro da Universida-

Amostras de concreto com partículas originadas de pneus descartados e moídos 78  z  agosto DE 2016

1

de de São Paulo (USP), desenvolveram novas alternativas de reaproveitamento dos pneus descartados, a primeira para encapsular motor de automóvel, com o objetivo de reduzir o ruído, e a segunda na produção de concreto mais flexível. Kelly Cristina de Lira Lixandrão, aluna de doutorado em Nanociências e Materiais Avançados da UFABC, desenvolveu, em parceria com a Mercedes-Benz do Brasil, um compósito de polipropileno e pó de borracha, obtido de pneus triturados, para ser utilizado no encapsulamento de motores de automóveis. “Nosso objetivo é simultaneamente diminuir a quantidade de carcaças de pneus depositadas em locais impróprios e reduzir a poluição sonora e do ar, evitando que sejam queimados a céu aberto e liberem substâncias tóxicas”, explica seu orientador, o físico Fabio Furlan Ferreira, do Centro de Ciências Naturais e Humanas (CCNH) da UFABC. A resina termoplástica de polipropileno (na forma de pó ou pellet) e o pó de borracha, depois de fundidos em um cilindro aquecido, passam por uma matriz para ganhar a forma final”, explica Ferreira. O físico conta que foram produzidas placas do compósito com proporções de 20% e 30% de pó de pneu em matriz de polipropileno. “Por ser mais fácil de ser processado, o material produzido com 20% foi utilizado para a fabricação de um protótipo que equipou um caminhão comercial da Mercedes para a realização de teste de ruído externo em pista de ensaio padronizada”, conta. “Os resultados foram satisfatórios. O ruído do motor encapsulado com o nosso produto foi semelhante ao obtido para o material de série.” A vantagem, segundo Ferreira, é que o material desenvolvido por Kelly é aproximadamente 53% mais leve e 20% mais barato que o atualmente utilizado, porque parte da sua composição é de polipropi-


Lixo difícil de eliminar Em 2015 foram vendidos no Brasil 71,9 milhões de pneus e descartados 45,7 milhões. Pneu usado é um 3

Problema ambiental que ganha novas soluções como a transformação em pó (acima) e uso no concreto ou no encapsulamento de motores 2

leno reciclado (material plástico duro como engradados, cadeiras e brinquedos). Além disso, o protótipo foi produzido de forma a gerar uma peça única de fácil fixação no veículo, sem a necessidade de utilização de cintas metálicas, o que também contribui para diminuir seu custo. Fernando Casa, analista da Engenharia de Materiais da Mercedes-Benz, conta que a decisão de fazer a parceria com a UFABC teve como objetivo garantir que a empresa continue atualizada e aproveite as eventuais inovações que possam surgir das pesquisas realizadas na pós-graduação da universidade. “Temos a possibilidade de aproveitar as ideias de alunos e pesquisadores e podemos também sugerir como temas de pesquisa assuntos de nosso interesse”, explica. De acordo com ele, a solução dada por Kelly e Ferreira aos pneus se mostrou viável até o momento, embora ainda esteja em desenvolvimento.

fotos  1 e 3 eduardo cesar 2 miguel boyayan

partículas de borracha

Em outro projeto, este do Departamento de Engenharia de Materiais da Escola de Engenharia de Lorena, da USP, o químico Clodoaldo Saron criou uma alternativa para o aproveitamento de pneus usados em novos tipos de cimento. “Desenvolvemos um concreto que tem em sua composição partículas de borracha de pneu misturadas com areia, em um teor de até 15%”, explica. Saron conta que as borrachas são de natureza orgânica e quimicamente pouco compatíveis com a areia e o cimento, materiais inorgânicos. A solução foi juntar a eles agentes compatibilizantes, compostos

por grupos funcionais químicos do tipo anidrido e epóxido, altamente reativos e capazes de formar ligações estáveis. “Os resultados obtidos mostraram que os dois compatibilizantes foram eficientes nesse propósito.” Feito isso, são seguidos os mesmos procedimentos para a preparação da argamassa convencional, com a adição de cimento e água em quantidades preestabelecidas. De acordo com o pesquisador, o novo concreto poderia ter diversos usos na construção civil, como nas calçadas. “Ele pode absorver melhor o impacto durante a caminhada, proporcionar maior conforto e redução de riscos de lesões”, diz. “Sua maior capacidade de deformação poderia ser útil também em calçadas arborizadas, reduzindo rachaduras do pavimento causadas pelas raízes das árvores.” O concreto com borracha poderia, ainda, ser empregado em construções de ambientes de grandes vibrações, desde que se desenvolvam estruturas capazes de absorvê-las, evitando danos físicos à edificação. Saron ressalva que os testes foram realizados apenas em laboratório e prevê mais três anos de desenvolvimento. A pesquisa, que já resultou em um pedido de patente, conta agora com a parceria do professor Sebastião Ribeiro e do doutorando Diego David Pinzón Moreno. n Evanildo da Silveira

tipo de lixo difícil de eliminar por não ser biodegradável e acumular grande volume. Se descartados em qualquer lugar, podem poluir rios e córregos ou servir de criadouros para mosquitos transmissores de doenças. Se queimados a céu aberto, liberam substâncias tóxicas. Por essas razões, a resolução de 2009 do Conselho Nacional do Meio Ambiente determinou que, para cada pneu novo vendido ao mercado de reposição (para carros usados), as empresas fabricantes ou importadoras deverão dar destinação adequada a um “inservível”, que é como são chamados aqueles completamente fora de uso. Segundo o presidente da Anip, Alberto Mayer, essa norma é cumprida pelos fabricantes. “São 1.008 pontos de coleta, que inclui os convênios com as prefeituras e os pontos de coleta temporários nas revendas”, informa. Apenas no ano passado foram coletadas 451,7 mil toneladas, o equivalente a 90 milhões de pneus de carros de passeio. Nos Estados Unidos, por volta de 60% dos pneus descartados são usados na geração de energia em cimenteiras, fábricas de papel ou para a rede de energia elétrica. Os demais vão para a reciclagem, segundo dados da Anip. “Na Alemanha, país onde a reciclagem é muito valorizada, o produto atrai coletores nas revendas”, informa Mayer. Segundo Fabio Furlan Ferreira, da UFABC, o Japão é o país mais adiantado na reciclagem de pneus inservíveis. “Lá, o aproveitamento é de cerca de 91% do volume total e os

Projeto

três principais mercados para

Utilização da técnica de ftir no estudo do reaproveitamento de rejeitos poliméricos de pet e de pneus usados por reciclagem mecânica (nº 2007/07676-9); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Clodoaldo Saron (EEL/USP); Investimento R$ 145.493,09.

a reciclagem de pneus são geração de energia, aplicação na construção civil e exportação para reutilização e recauchutagem.” pESQUISA FAPESP 246  z  79


humanidades   Educação y

Quando o computador ajuda a aprender Estudo confirma benefícios do uso de recursos tecnológicos em sala de aula, em especial para alunos com dificuldades de aprendizagem

Fabrício Marques

U

ma pesquisa que acompanhou 400 alunos de ensino médio de uma escola pública de Araraquara, interior paulista, identificou benefícios do uso de recursos tecnológicos em sala de aula, principalmente em relação a estudantes com dificuldades de aprender. O estudo, liderado por Silvio Fiscarelli, professor do Departamento de Didática da Faculdade de Ciências e Letras de Araraquara da Universidade Estadual Paulista (Unesp), avaliou o impacto do uso de “objetos de aprendizagem” no desempenho em física, química, português e matemática de alunos do 1º ao 3º ano do ensino médio de uma escola estadual da cidade, a Bento de Abreu. A 80  z  agosto DE 2016

definição de objeto de aprendizagem é ampla e pode abranger todo tipo de conteúdo digital que apoie o ensino. No caso da pesquisa de Fiscarelli, o foco foi mais restrito. Ele utilizou animações, simulações e exercícios virtuais para auxiliar os alunos a compreenderem de forma mais fácil e concreta, na tela do computador, conceitos ministrados na sala de aula. O grupo de pesquisa criou, com ajuda dos professores da escola, 20 objetos de aprendizagem para uso no experimento. Um deles, um exercício de análise combinatória, consistia em organizar um campeonato de futebol de forma que os times nunca jogassem mais de uma vez uns com os outros. Outro, sobre calorimetria, simulava a transferência de

calor de um objeto para a água: objetos eram aquecidos num fogareiro e eram depois mergulhados na água – tudo simulado na tela do computador. Ao cabo de dois anos de pesquisa (2013 e 2014), constatou-se que, no aprendizado de conteúdos específicos, as notas dos alunos que utilizaram objetos de aprendizagem eram em média 24% superiores às dos que aprenderam apenas com livros e exercícios em papel. A diferença chegou a 46% quando a comparação se limitou aos alunos que costumavam ter rendimento mais baixo. “Como o efeito dos objetos de aprendizagem é visual e demonstrativo, eles têm impacto maior nos alunos com dificuldade em aprender numa aula convencional. Entre os alu-


secretaria municipal de comunicação / pma

Ex erepudist ulluptatet ut quiatem olessun deriorescid que re pelibus sint doloreici core, nossim est odis dis et

nos com notas boas, a diferença é menor”, esclarece Fiscarelli, que coordena o laboratório de Informática Aplicada à Gestão Educacional (Iage), da Unesp. “É importante ressaltar que o objetivo dessa tecnologia é colaborar com o trabalho do professor em sala de aula e não substituí-lo pelo computador.” Um dos desafios do grupo foi criar “roteiros de atividades”, sequências didáticas concebidas para orientar os alunos durante o uso dos objetos, seguindo um percurso traçado pelos pesquisadores e pelos professores da disciplina, além de estimular os estudantes a desenvolver uma aprendizagem ativa. Segundo Fiscarelli, foi utilizada uma metodologia conhecida como “Aprendizagem baseada

Aluna do ensino fundamental de colégio municipal de Araraquara: lousas digitais em avaliação

em tarefas”, que possibilitou a retomada de conteúdos desenvolvidos previamente em sala de aula em novos contextos, por meio de simulações, exercícios e atividades interativas. “Grande parte do sucesso da pesquisa teve a ver com esses roteiros”, explica o professor. Para ele, o uso de metodologias adequadas para a aplicação de recursos tecnológicos em sala de aula é essencial para o sucesso da aprendizagem. “Fico indignado quando vejo o laboratório de informática como uma atividade tapa-buracos”, afirma. “Os estudantes vão lá para fazer pesquisa na internet, mas sem um roteiro, qual é o objetivo de aprendizagem? O que eu quero que o meu aluno aprenda com isso?”

O projeto teve uma fase-piloto, realizada entre 2011 e 2012 com financiamento da própria Unesp. Alguns objetos foram testados com 400 alunos do ensino médio nos laboratórios de informática da escola, mas com certa frequência as atividades eram interrompidas pela intermitência da internet e falta de disponibilidade de professores. Ainda assim, foram observados ganhos no processo de aprendizagem. Para superar dificuldades, Fiscarelli adotou outra estratégia. Submeteu um projeto de pesquisa ao Programa de Melhoria do Ensino Público da FAPESP que, uma vez aprovado, propiciou a compra de 33 notebooks, além de patrocinar bolsas para professores participantes. “Isso nos pESQUISA FAPESP 246  z  81


1

“Fico indignado quando vejo o laboratório de informática como uma atividade tapa-buracos”, diz Fiscarelli

Sala de aula informatizada em escola em Serrana, interior paulista (esq.), e crianças do Nepal participantes do programa Um Computador por Aluno (à dir.)

deu mobilidade, pois pudemos fazer os estudos dentro da própria sala de aula e sem precisar da internet, uma vez que os objetos de aprendizagem estavam disponíveis nos notebooks. E também engajamos mais os professores, que frequentemente tinham de usar o tempo livre para participar de reuniões conosco e se deslocar até a Unesp”, afirma o professor.

O

s objetos de aprendizagem começaram a ser estudados a partir dos anos 1990, com a crescente utilização de computadores em escolas. O termo foi adotado em 1996 pelo Comitê de Padrões de Tecnologia de Aprendizagem do Instituto de Engenheiros Eletricistas e Eletrônicos dos Estados Unidos (IEEE). “Nos Estados Unidos, é comum que empresas de material didático produzam objetos de aprendizagem e os forneçam para uso dos alunos e professores”, conta Fiscarelli. No Brasil, diz o professor, esses recursos costumam ser produzidos por editoras de livros didáticos e oferecidos em discos de CD-Rom. Mas até hoje tiveram pouco impacto no ensino público do país. “Os objetos de

82  z  agosto DE 2016

aprendizagem ainda não ‘pegaram’ porque falta metodologia e infraestrutura de tecnologia nas escolas. Mas continuo achando que eles vão ganhar expressão no futuro por serem eficientes em ampliar a compreensão dos alunos.” Instituições como a Universidade Waterloo, no Canadá, e o Fox Valley Technical College, no estado norte-americano de Wisconsin, criaram repositórios de objetos de aprendizagem. Em 2008, o Ministério da Educação (MEC) também criou um banco de dados de objetos educacionais (objetoseducacionais2.mec. gov.br), que disponibiliza perto de 20 mil itens de diversas disciplinas e níveis de ensino. Feitos no Brasil e no exterior, foram avaliados por especialistas antes de serem disponibilizados. O banco, contudo, não recebe novos objetos há mais de um ano e foi perdendo fôlego depois que a Secretaria Especial de Educação a Distância do MEC, responsável por sua criação, foi extinta em 2011. “A ideia do repositório era estimular professores a buscar recursos digitais para aplicar em suas aulas, mas o fato é que pouca gente os utiliza”, explica o sociólogo Rodolfo

Fernandes Esteves, que faz uma pesquisa de doutorado no Iage sobre o uso de objetos educacionais associados a lousas digitais. “Além disso, a qualidade dos itens desse banco é bastante desigual.” Há uma predominância de objetos nas disciplinas de matemática e física. Boa parte do conteúdo é voltada para educação a distância em nível médio e superior. Em sua pesquisa, Esteves trabalha com 150 alunos do ensino fundamental de escolas municipais de Araraquara, sendo duas turmas de primeiro ano e duas de terceiro ano. Ele propôs à prefeitura da cidade avaliar uma política pública que determinou a instalação nos colégios municipais de lousas digitais, grandes telas de computador sensíveis ao toque em que professores e alunos podem vislumbrar conteúdos na forma de recursos multimídia e navegar na internet. Para conduzir o estudo, foi necessário selecionar 250 objetos de aprendizagem em matemática e ciências, que estão sendo testados em sala de aula. “Nosso objetivo é fazer o professor usar esses objetos, analisar os pontos positivos e negativos e ver os resultados que trouxeram.” Um segundo objetivo é criar um repositório de recursos digitais com boa avaliação, que já está ativo no endereço da internet iage.fclar.unesp.br/objetos. A importância de construir um repositório, observa Esteves, é maior do que se imagina e tem a ver com o processo de implementação da tecnologia em sala de aula. “Não adianta distribuir um computador por aluno ou dar um tablet para cada um deles se não há conteúdo adequado para usar no hardware”, ressalva. Os primeiros resultados mostram que a adesão dos professores do ensino fundamental é maior com objetos de aprendizagem de matemática em relação aos de outras matérias. “Existem mais objetos dessa disciplina e eles estão mais bem desenvolvidos. No primeiro ano, por exemplo, os professores ensinam os


2

números usando os objetos, como aqueles em que carrinhos carregam de 1 a 10 quadradinhos, representando números e quantidades”, afirma Esteves, cujo projeto de doutorado deve estar concluído até 2018. “No Canadá, há lousas digitais na maioria das escolas que fazem uso de repositórios, e na Coreia do Sul usam-se os recursos digitais a tal ponto que se discute a ideia de acabar com o uso da letra cursiva nas escolas”, afirma.

fotos 1 Silva Junior / Folhapress 2 ole nepal / wikimedia commons

E

xperiências de outros grupos corroboram as dificuldades para consolidar o uso de tecnologias na sala de aula. Pesquisador do Núcleo de Informática Aplicada à Educação (Nied) e professor do Instituto de Artes da Universidade Estadual de Campinas (IA-Unicamp), José Armando Valente coordenou entre 2010 e 2013 o projeto “Um Computador Por Aluno” (UCA-Unicamp), financiado pelo MEC, vinculado a um programa que distribuía computadores de baixo custo a estudantes em vários países do mundo. O projeto da Unicamp ajudou a preparar professores cujos alunos usaram laptops em três estados da região Norte (Acre, Rondônia e Pará) e em quatro municípios paulistas (Campinas, Pedreira, Sud Menucci e São Paulo). “Foi uma experiência interessante, porque cada escola trabalhou do seu jeito. O que fizemos foi dar apoio ao profes-

“Não adianta distribuir computador se não há conteúdo adequado para usar no hardware”, afirma Esteves

sor e ajudá-lo a integrar a tecnologia nas suas atividades”, conta Valente. Uma das frentes consistiu em mudar a postura do professor, que foi desafiado a propor atividades aos alunos e orientá-los a obter respostas com a ajuda do computador e da internet. “Essa abordagem pedagógica é diferente daquela para a qual o professor foi formado”, diz Valente. “Embora os computadores fossem de baixo custo, permitiam fazer vários tipos de atividade, como tirar fotos e fazer gravações, e com esses materiais criar outras formas de representar conhecimento.” Apesar de resultados positivos obtidos em experiências-piloto, o projeto

deu frutos limitados. Em 2012, a experiência com os laptops foi substituída por um programa que distribuiu tablets nas escolas. “Os tablets vinham com uma série de softwares e objetos de aprendizagem que não tinham muito a ver com o contexto das escolas”, lamenta. E a resistência em usar recursos tecnológicos em sala de aula ainda é grande, afirma Valente. “Os professores têm dificuldade em trabalhar segundo uma abordagem menos professoral e que valorize o uso da tecnologia. Tanto que há leis em vários lugares do país obrigando os alunos a manterem telefones celulares e dispositivos móveis desligados durante a aula, para não causarem distração. Se o professor propõe uma atividade usando celular ou tablet envolvendo a resolução de um problema e esse problema faz sentido para o aluno, não há como o aluno se distrair.” n

Projetos 1. Objetos de aprendizagem na sala de aula: Recursos, metodologias e estratégias para melhoria da qualidade da aprendizagem (nº 2012/15487-0); Modalidade Auxílio à Pesquisa – Programa Ensino Público; Pesquisador responsável Silvio Henrique Fiscarelli (FCLAR/Unesp); Investimento R$ 49.763,15. 2. Lousa digital interativa e objetos de aprendizagem: A convergência de tecnologias para melhoria da educação (nº 2014/25460-7); Modalidade Bolsa no País – Regular – Doutorado; Pesquisador responsável José Luis Bizelli (FCLAR/Unesp); Bolsista Rodolfo Fernandes Esteves (FCLAR/Unesp); Investimento R$ 149.891,04.

pESQUISA FAPESP 246  z  83


urbanismo y

O calor das cidades Pesquisas procuram definir padrões para proteger os moradores das grandes cidades dos efeitos das altas temperaturas Diego Viana

C

om os sucessivos recordes de temperatura registrados nos últimos anos, o morador das grandes cidades é um dos primeiros a sentir os efeitos do clima mais quente agravado pelas “ilhas de calor”, fenômeno que ocorre principalmente nas metrópoles. A concentração de asfalto e concreto, poucas áreas verdes e excesso de poluição atmosférica favorecem a elevação da temperatura. Como consequência, os trabalhos de planejamento urbano passaram a enfrentar o desafio de promover o conforto ambiental. No espaço público, as maiores aliadas são as árvores. Debaixo de uma árvore de grande porte e copa densa, a sensação térmica é muito mais baixa que poucos metros adiante: mesmo que a temperatura medida no ar seja apenas 1 ou 2 graus Celsius (ºC) mais baixa, dependendo das interações solo-superfície-atmosfera, uma pessoa experimenta o frescor de cerca de 10 a 13 ºC a menos sob a árvore. Em dias de calor, a diferença pode chegar a 20 ºC. O Laboratório de Conforto Ambiental e Eficiência Energética (Labaut) do Departamento de Tecnologia da Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo (FAU-USP) desenvolve projetos que tentam entender as complexas relações climáticas nas cidades e procuram formas de tornar a vida mais confortável do ponto de vista ambiental. 84  z  agosto DE 2016

Elevado Presidente João Goulart, no centro de São Paulo: benefício das árvores tem alcance restrito


eduardo cesar

pESQUISA FAPESP 246  z  85


“Árvores são fontes de amenidade que fazem uma diferença enorme em termos de temperatura, umidade, vento e luz”, afirma a engenheira Denise Duarte, coordenadora do Labaut e docente da FAU. No entanto, o efeito de um parque, uma praça ou mesmo uma avenida bem arborizada é apenas local. Quem se encontra nas construções imediatamente vizinhas experimenta certo alívio térmico, mas alguns pavimentos acima ou uma rua mais adiante as condições já não são iguais. Denise recomenda que o planejamento e o desenho urbano considerem uma “rede de infraestrutura verde”, com vias arborizadas, que conecte a cobertura vegetal aos demais espaços públicos da cidade. Vice-coordenador do Labaut, o arquiteto Leonardo Marques Monteiro criou um índice de conforto térmico – Temperatura Equivalente Percebida (TEP) – adequado às condições específicas do Brasil. Internacionalmente, há mais de 100 modelos de cálculo para chegar a um índice que sirva de parâmetro para avaliar o conforto térmico. O mais utilizado, Physiological Equivalent Temperature (PET), compara a diferença de uma sensação em espaço aberto com a de um fechado. Esse modelo leva em conta a fisiologia de um corpo que corresponde à média da população da Alemanha, onde foi desenvolvido. “Minha preocupação não foi tanto com a fisiologia do corpo, mas com o modo como as pessoas respondem”, explica Monteiro. O método utiliza grande número de entrevistas com transeuntes de diversos locais para entender as atividades praticadas ali e como os diferentes grupos sociais sentem os espaços. Os questionários contêm perguntas sobre sensação e satisfação térmica. Os resultados estão disponíveis para subsidiar pesquisas e projetos públicos ou privados. 86  z  agosto DE 2016

Para o pesquisador, o planejamento de uma área urbana precisa levar em conta a diversidade dessas experiências. “O uso da cidade é muito heterogêneo, há todo tipo de gente em todo tipo de situação”, afirma. “O importante é criar uma variedade de tipos de espaço, para que as pessoas escolham o que preferem.” idosos

Pesquisadores coordenados por Fábio Gonçalves, docente do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, estudaram no projeto temático “Biometeorologia humana: Análise dos efeitos de variáveis ambientais (meteorológicas, conforto ambiental e poluição atmosférica) e das mudanças climáticas na população geriátrica da cidade de São Paulo”, encerrado em junho, uma parcela da população particularmente vulnerável ao calor excessivo: os idosos. Segundo Monteiro, que participa do projeto, o idoso não percebe um ambiente quente da mesma maneira que o jovem, sobretudo em condições de alta umidade, quando o suor é menos eficaz para dissipar o calor. Os idosos sentem-se em conforto, mas na realidade encontram-se em situação de estresse térmico por calor. “Melhorando a cobertura vegetal, porém, podemos obter conforto na maior parte do tempo”, afirma Monteiro. A expressão conforto ambiental designa o estado em que alguém consegue satisfatoriamente se adaptar às condições térmicas, luminosas, sonoras e ergonômicas. Nos projetos de edifícios, o conforto Corredor verde na Vila Madalena: conexões entre áreas arborizadas ampliam conforto ambiental

ambiental é levado em conta quando se pensa em eficiência energética e exposição ao sol e ao vento. Nas áreas abertas, o problema é mais complexo. Exige a convergência de diversos campos de conhecimento, como meteorologia – em particular a biometeorologia –, geografia, arquitetura e engenharia. Segundo Denise, que participou do projeto temático, a arquitetura exerce nesse contexto um papel unificador. “Os arquitetos têm um olhar mais humanista, para além dos modelos numéricos”, diz. A pesquisa em áreas externas exige um trabalhoso processo de medição que envolve diversos tipos de equipamento e em grande quantidade. Os pesquisadores são unânimes em lamentar que as cidades brasileiras não disponham de uma quantidade maior de estações meteorológicas. O projeto “Modelo participativo para avaliação do conforto ambiental em espaços abertos”, em andamento e conduzido pela arquiteta Alessandra Prata, docen-


Concentração de prédios na região central de São Paulo (página ao lado) e Parque da Aclimação, na zona sul: cobertura desigual

te da FAU-USP, resultou na criação de um aplicativo de celular que está sendo testado, com o qual voluntários relatam sua situação de conforto ambiental em diferentres lugares da cidade. O objetivo principal é relacionar a sensação térmica com dados de estações meteorológicas a serem instaladas em diversos espaços urbanos, e com isso fornecer informações para basear políticas públicas.

fotos  eduardo cesar

sucessão de espaçOs

Para Denise, são raros os casos de cidades brasileiras com bom planejamento de conforto ambiental. Nas metrópoles, encontram-se eventuais pontos que, segundo ela, funcionam como oásis. Ela cita os parques urbanos arborizados, como

o Trianon, em São Paulo, um alívio em dias de calor intenso na avenida Paulista. “Mas esses pontos são poucos, desconectados e insuficientes. Há grandes áreas da cidade sem nenhuma vegetação.” A perspectiva da continuidade é importante. “O que falta é um planejamento que crie uma sucessão de espaços arborizados, como oásis urbanos, para que os deslocamentos sejam mais confortáveis”, indica a pesquisadora. A cobertura vegetal, com boa ventilação natural e equilíbrio satisfatório entre espaços sombreados e ensolarados, é o fator principal para o alívio térmico, podendo ser complementada por pergolados (estruturas que dão sustento a trepadeiras) e pela presença de cursos ou espelhos d’água. Para cada tipo de clima é preciso pensar o tipo de árvore adequado. Em 2012, por ocasião da conferência Rio+20 sobre o clima, da Organização das Nações Unidas (ONU), foi inaugurado no bairro de Madureira, zona norte do Rio de Janeiro, um parque que aproveitava a área de antigas linhas de transmissão de eletricidade. Madureira tinha cerca de 50 mil habitantes e menos de 1 m2 de espaço verde por habitante. A Sociedade Brasileira de Arborização Urbana recomenda 15 m2. O Parque Madureira tem 93 mil m2, com árvores nativas, pergolados e espelhos d’água para garantir o sombreamento e a umidade. No entanto, Denise e Monteiro criticam a falta de sombreamento e a escolha de espécies, com um número excessivo de palmeiras. “No Parque Madureira há vários acertos, como a presença de água de forma lúdica, mas palmeiras, pelo formato da copa, não proporcionam uma sombra de boa qualidade”, afirma. “Por causa disso, as áreas pavimentadas podem atingir temperaturas de superfície muito altas.”

Segundo a pesquisadora, o exemplo positivo está na Alemanha, cujas leis de planejamento urbano preveem obrigações de proteção climática, mencionam expressamente a mitigação dos efeitos do aquecimento global desde 1976 e tratam da adaptação às transformações do clima. No Brasil, mesmo os planos diretores, as leis de uso e ocupação do solo e os códigos de obras e edificações de construção das cidades são pouco rigorosos em questões ambientais, afirma Denise. A doutoranda em arquitetura na FAU Luciana Schwandner Ferreira, que se especializa em áreas verdes, afirma que os índices de arborização podem ser enganosos, porque tomam como dado homogêneo uma cobertura desigual. “A maior parte das árvores de São Paulo está em lugares como Parelheiros e Cantareira”, declara, referindo-se a bairros afastados do centro e das ilhas de calor. Em sua pesquisa, ela usa dados de satélite para medir os impactos da perda de vegetação nos últimos anos sobre a temperatura de superfície, a temperatura do ar e a umidade do ar da Região Metropolitana de São Paulo. A intenção é que os dados coletados sejam entregues ao poder público, podendo ser usados para elaborar diretrizes de arborização da cidade. n

Projetos 1. Biometeorologia humana: Análise dos efeitos de variáveis ambientais (meteorológicas, conforto ambiental e poluição atmosférica) e das mudanças climáticas na população geriátrica da cidade de São Paulo (2010/10189-5); Modalidade Auxílio à Pesquisa – Projeto Temático; Pesquisador responsável Fábio Luiz Teixeira Gonçalves (IAG-USP); Investimento R$ 671.390,00. 2. Modelo participativo para avaliação do conforto ambiental em espaços abertos (2015/19484-3); Modalidade Auxílio à Pesquisa – Regular; Pesquisadora responsável Alessandra Rodrigues Prata Shimomura; Investimento R$ 121.489,00.

pESQUISA FAPESP 246  z  87


obituário y

Dedicação integral ao teatro Professor e escritor, o crítico Sábato Magaldi era tido como

E

m seus 89 anos, Sábato Ma­g aldi correspondeu integralmente à expressão “homem de teatro”. Crítico, historiador e professor, foi também um intelectual que interagia diretamente com o que era produzido nos palcos. Magaldi morreu no dia 17 de julho em São Paulo, em decorrência de infecção generalizada. Suas cinzas foram depositadas no mausoléu da Academia Brasileira de Letras (ABL), no Rio de Janeiro. “Diferentemente da crítica atual, sua geração foi muito atuante na prática teatral, ensinando aos estudantes, profissionais e amantes das artes cênicas as tendências, movimentos e procedimentos de criação, integrando o teatro brasileiro ao internacional”, afirma a diretora teatral Cibele Forjaz, professora do Departamento de Artes Cênicas da Sábato Magaldi: reconhecimento à importância de Nelson Rodrigues e Oswald de Andrade Escola de Comunicações e Artes da Universidade de São Paulo (ECAsuplemento até 1969, já acumulando a -USP), que foi aluna de Magaldi. Considerado um dos três principais função de crítico de teatro do Jornal da críticos da área no Brasil, ao lado de Tarde, que ocupou desde sua fundação, Décio de Almeida Prado (1917-2000) e em 1966, até 1988. Na EAD, Magaldi foi contratado para a Bárbara Heliodora (1923-2015), Magaldi nasceu em 1927 na cidade de Belo Hori- cadeira de História do Teatro e, em 1962, zonte, onde se formou em direito. Aos 21 criou a de Teatro Brasileiro. Entre suas anos, mudou-se para o Rio de Janeiro e obras em livro, o crítico escreveu Panocomeçou a publicar críticas de teatro no rama do teatro brasileiro (1962), até hoje Diário Carioca. Em 1953, transferiu-se uma referência na área, e organizou as para São Paulo para lecionar na Escola de peças de Nelson Rodrigues por temas Arte Dramática (EAD), a convite de seu em quatro volumes. Magaldi era amigo fundador, Alfredo Mesquita. Três anos do dramaturgo e foi um dos responsádepois, tornou-se redator do Suplemento veis por destacá-lo como o fundador do Literário do jornal O Estado de S. Paulo, teatro moderno no Brasil. Em Panoraentão muito influente culturalmente, no ma também reafirmou e fundamentou qual escreviam intelectuais como Almei- a importância do teatro de Oswald de da Prado, Paulo Emilio Salles Gomes e Andrade. Em 1988, publicou Moderna Antonio Candido. Magaldi trabalhou no dramaturgia brasileira, no qual deu conti88  z  agosto DE 2016

nuidade ao trabalho histórico, tratando então de dramaturgos e espetáculos mais recentes, com destaque para o autor Plínio Marcos. “Sábato Magaldi foi um pioneiro nos estudos teatrais brasileiros, tanto na constituição de um corpus crítico sobre nossa produção dramática moderna como no exercício do pensamento crítico”, opina Luiz Fernando Ramos, também professor da ECA-USP. “Exerceu a militância cotidiana nos jornais e publicou ensaios e análises de largo fôlego, alguns inclusive voltados para a própria crítica.” Uma das polêmicas das quais participou via páginas de jornais foi com o encenador José Celso Martinez Correa por causa de sua crítica ao espetáculo Gracias, señor, em 1972. Magaldi doutorou-se na Faculdade de Filosofia, Letras e Ciên1 cias Humanas (FFLCH) da USP em 1972, com tese sobre Oswald de Andrade, e fez livre-docência em 1983 na ECA-USP, sobre o teatro de Nelson Rodrigues. De 1985 a 1987, lecionou na Universidade de Paris III (Nouvelle Sorbonne). Em 1988, tornou-se professor titular de Teatro Brasileiro no Departamento de Artes Cênicas. De 1989 a 1991, deu aulas na Universidade de Aix-en-Provence, França. Entre 1975 e 1979, foi o primeiro secretário municipal da Cultura da cidade de São Paulo, na gestão do prefeito nomeado Olavo Setúbal. O crítico ocupava desde 1995 a cadeira 24 da ABL. Deixa cerca de 50 cadernos escritos à mão, com anotações sobre o teatro brasileiro que conheceu durante a trajetória de crítico. Sua recomendação à mulher, a escritora Edla van Steen, teria sido que a publicação ocorra apenas 30 anos depois de sua morte. n Márcio Ferrari

fotos 1 WILTON JUNIOR / ESTADãO CONTEúDO / AE  2 Matuiti Mayezo / Folhapress

um dos três principais nomes em sua área no Brasil


Ferreira: sempre inquieto com os mecanismos de ação dos fármacos e com a ciência brasileira

2

Visão inovadora da farmacologia Sérgio Henrique Ferreira se destacou na pesquisa de medicamentos contra hipertensão e dor e foi presidente da SBPC

E

m novembro de 2010, aos 76 anos, o farmacologista Sérgio Henrique Ferreira lembrou-se com gratidão do também farmacologista Maurício Rocha e Silva, seu orientador de doutorado, de 1961 a 1964, na Faculdade de Medicina de Ribeirão Preto (FMRP) da Universidade de São Paulo (USP). “Foi Rocha e Silva quem me ensinou a olhar detidamente as coisas”, disse ele no intervalo de um congresso no Rio de Janeiro. Ferreira morreu em 17 de julho de 2016, aos 81 anos, em Ribeirão Preto. Paulista de Franca e formado pela Faculdade de Medicina da USP, aos 31 anos Ferreira isolou os peptídeos do veneno da jararaca capazes de inibir uma enzima que degrada a bradicinina, hormônio que reduz a pressão arterial. Ferreira escre-

veu um artigo relatando a descoberta e colocou também o nome de Rocha e Silva, que era seu orientador e havia descoberto a bradicinina, imaginando que ele assinaria junto. Rocha e Silva riscou o próprio nome: “Se eu entrar, ninguém vai acreditar que você fez sozinho”. A descoberta do chamado Fator de Potenciação da Bradicinina motivou a empresa norte-americana Bristol-Myers Squibb a desenvolver uma nova classe de fármacos contra hipertensão arterial, inaugurada com o Captopril. “Sérgio talvez tenha sido o único brasileiro cujos experimentos, realizados totalmente no Brasil, permitiram a criação de uma classe de medicamentos”, diz o farmacologista Fernando Cunha, que se mudou do Rio de Janeiro para fazer o

doutorado com Ferreira em 1983 e quatro anos depois foi contratado como professor da FMRP. Ferreira viveu na Inglaterra com a mulher, Maria Clotilde Rossetti Ferreira, e os três filhos em duas ocasiões. De 1964 a 1967 e de 1970 a 1973 fez dois estágios de pós-doutoramento com o farmacologista John Vane no Royal College of Surgeons of England, que viria a ganhar o Prêmio Nobel de Fisiologia e Medicina em 1982. Na segunda temporada com Vane, estudou o mecanismo de ação do ácido acetilsalicílico (Aspirina), que, como ele observou, inibe a síntese de prostaglandinas, moléculas que reduzem a sensibilidade dos neurônios ligados a dor. De 1974 a 1975, trabalhou na Wellcome Research, instituição ligada à empresa farmacêutica Wellcome Laboratories. Imaginativo e exigente

Em outro trabalho, Ferreira verificou que a morfina, além do efeito sobre o sistema nervoso central, tem um efeito analgésico periférico, a que chamou de teleantagonismo (ver Pesquisa FAPESP nº 155). “Como professor e pesquisador na FMRP, ele era muito imaginativo e exigente com a qualidade dos trabalhos da equipe”, comenta Janetti Nogueira de Francischi, professora do Instituto de Ciências Biológicas da Universidade Federal de Minas Gerais (ICB-UFMG) que trabalhou com ele de 1977 a 1985, durante o mestrado e o doutorado. “Ele sempre nos motivava a seguir em frente.” Ferreira participou intensamente dos debates sobre política científica no país, principalmente na época em que foi presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC), por dois períodos, entre 1995 e 1999. “Há 50 anos estávamos pensando em criar a FAPESP, o CNPq e a pós-graduação, instituições que hoje estão consolidadas. Qual é a estratégia para os próximos 50 anos?”, ele se perguntava em 2010, inquieto, como sempre, com os rumos da ciência brasileira. n Carlos Fioravanti pESQUISA FAPESP 246  z  89


memória

À sombra da história Jessé Acioly identificou os mecanismos da hereditariedade da anemia falciforme em 1946, um ano antes do geneticista americano James Neel

Rodrigo de Oliveira Andrade

1

O 2

O médico alagoano constatou os mecanismos de herança genética da anemia falciforme, doença em que os glóbulos vermelhos assumem a forma de foice (acima)

90 | agosto DE 2016

médico Jessé Santiago Acioly Lins tinha apenas 25 anos quando anunciou que havia identificado os mecanismos de herança genética da anemia falciforme. A doença, mais comum entre os descendentes de africanos, faz com que os glóbulos vermelhos do sangue (hemácias) assumam a forma de foice. Desse modo, as hemácias morrem mais cedo e a distribuição de oxigênio para os tecidos é comprometida, causando febre e dores musculares. A descoberta se deu em 1946 como resultado da observação de pessoas com a doença em Salvador, Bahia, e do estudo das leis da genética clássica aplicadas à distribuição do gene responsável pela produção de uma das variantes estruturais da hemoglobina, proteína responsável pelo transporte de oxigênio e que dá a cor vermelha ao sangue. Antecipando-se aos colegas de países desenvolvidos, o médico concluiu que a anemia falciforme era uma doença autossômica recessiva, isto é, tanto o pai como a mãe precisariam carregar o gene que leva à produção de hemoglobinas anormais, sendo preciso herdar os dois genes para que a doença se manifeste. A anemia falciforme foi descrita pela primeira vez pelo médico norte-americano James Herrick, em 1910, a partir de amostras de sangue de um indivíduo de ilha de Granada, no Caribe. No início da década de 1940,


fotos 1 janice haney carr / cdc 2 acervo faculdade de medicina da universidade federal da bahia 3 eliane azevedo / american journal of human genetics e 4 james neel / medicine

no entanto, a doença ainda era pouco conhecida por médicos e pesquisadores brasileiros, à exceção de alguns hematologistas. A atenção àquela época se voltava a patologias de maior impacto social, como câncer e tuberculose. Aos poucos, a moléstia deixou o quase anonimato e se tornou uma questão de saúde pública, sendo cada vez mais discutida e estudada, sobretudo por conta da diversidade étnica e da intensa miscigenação da população. Nascido em Porto Calvo, Alagoas, Jessé Acioly (1921-1996), como ficou conhecido, era estudante do quinto ano na Faculdade de Medicina da Bahia quando apresentou suas ideias, em 1947, em um artigo de 29 páginas publicado em uma revista local chamada Arquivos da Universidade da Bahia, também conhecida como Tertúlias Acadêmicas. A partir dos trabalhos do monge austríaco Gregor Mendel (1822-1884) sobre a transmissão de características em ervilhas, Acioly fez um estudo detalhado da doença, discutindo sua alta incidência no Brasil e as formas de tratamento possíveis. “O trabalho era muito bem elaborado e comprovava por meio de um heredograma [representação das relações de parentesco] que a doença era herdada de forma autossômica recessiva”, diz a geneticista Eliane Azevedo, professora emérita da Faculdade de Medicina da Universidade Federal da Bahia (FM-UFBA) e reitora entre 1992 e 1993. “Tratava-se de uma descoberta inédita sobre o mecanismo de herança de uma doença que

3

Resumo reivindicando a prioridade de Acioly sobre a descoberta da herança genética da anemia falciforme (acima). Ao lado, artigo de James Neel, em que descreve as mesmas conclusões a que o médico brasileiro havia chegado

estava na vanguarda das pesquisas nos países mais desenvolvidos.” Apesar de sua importância, o trabalho permaneceu praticamente ignorado. “O fato de ter sido publicado em português em uma revista de circulação local e de que poucos pesquisadores haviam ouvido falar contribuiu para isso”, afirma o biomédico Magnun Nueldo Nunes dos Santos, professor de hematologia da Faculdade de Ciências Médicas da Universidade Estadual de Campinas (FCM-Unicamp). Em 1947, nos laboratórios de Clínica Hereditária da Universidade de Michigan, nos Estados Unidos, o geneticista James Neel chegou às mesmas

4

conclusões de Acioly, publicando-as na revista Medicine, de maior expressão para a área médica. O trabalho teve grande repercussão entre os especialistas da época e Neel ficou conhecido como o primeiro a ter identificado os mecanismos de herança da doença. Coube a Eliane Azevedo, 27 anos depois, reivindicar a prioridade de Acioly sobre a descoberta dos mecanismos de herança genética da doença. Em 1969, em uma conversa informal no Laboratório de Genética Médica do Hospital das Clínicas da FM-UFBA, Acioly lhe mostrou uma cópia de seu trabalho publicado em 1947. “Percebi que o artigo descrevia o mecanismo de herança da anemia falciforme pela primeira vez na literatura científica”, ela conta. À época, geneticistas do mundo todo atribuíam a descoberta apenas a James Neel.

Eliane, então, preparou um resumo em inglês do artigo e o enviou ao editor da revista American Journal of Human Genetics. Seu comentário foi publicado em 1973 e as ideias de Acioly se tornaram conhecidas. Meses mais tarde, a pedido do serviço de hematologia da Universidade de Wisconsin, Eliane traduziu o artigo na íntegra e o enviou à universidade em que Neel trabalhava. A partir de então, Acioly passou a ser considerado, ao lado de Neel, o responsável pela identificação dos mecanismos de herança genética da doença. Esse foi o primeiro e único trabalho de Acioly na área de genética. Seu interesse àquela época se voltava à hematologia clínica. No início dos anos 1960, no entanto, o médico se mudou para a Espanha, onde se especializou em psiquiatria, área na qual seguiu carreira. n PESQUISA FAPESP 246 | 91


Arte

Caipiras transnacionais Tese defende que Almeida Júnior criou suas célebres figuras de caipiras em diálogo com a pintura naturalista produzida na Europa Christina Queiroz

O

paulista de Itu José Ferraz de Almeida Júnior (1859-1899) foi o criador, no final do século XIX, do gênero de pinturas que retratam caipiras. Embora a temática seja genuinamente nacional, a técnica utilizada deve muito a procedimentos aprendidos no exterior, durante estadas na França e em diálogo com a produção europeia. Essa foi a ideia defendida pela historiadora Fernanda Mendonça Pitta, curadora da Pinacoteca de São Paulo, na tese de doutorado “Um povo pacato e bucólico: Costume e história na obra de Almeida Júnior”, desenvolvida entre 2010 e 2013 no Departamento de Artes Visuais da Escola de Comunicação e Artes da Universidade de São Paulo (ECA-USP). A pesquisadora contesta a concepção tradicional – baseada nas análises de críticos como os modernistas Mário de Andrade e Oswald de Andrade, e também de José Bento Monteiro Lobato – que associava a produção do artista ao fato de ele ser interiorano, compreendendo sua pintura como reflexo de suas experiências e memórias. O historiador da arte Rodrigo Naves, doutor em estética pela Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP, explica que, tradicionalmente, a crítica valorizou a obra de Almeida Júnior por considerá-la representativa da identidade brasileira, e que a tese de Fernanda 92 | agosto DE 2016

confronta essa ótica mais chauvinista. Embora outros pesquisadores tenham analisado a pintura do artista de uma perspectiva mais artística e menos ideológica – entre eles Aracy Amaral, professora de história da arte na Faculdade de Arquitetura e Urbanismo (FAU) da USP –, Naves afirma que o estudo de Fernanda é o primeiro a oferecer uma visão aprofundada sobre as relações de Almeida Júnior com a pintura europeia. Percival Tirapeli, professor do Instituto de Artes da Universidade Estadual Paulista (Unesp), afirma que até meados da década de 1980 as pesquisas sobre o pintor eram em geral panorâmicas. Muitas delas relacionavam vida e obra. A partir dos anos 1990, os estudos acadêmicos passaram a se concentrar em obras específicas, o que permitiu um aprofundamento nas questões estéticas. Para o historiador da arte Tadeu Chiarelli, diretor da Pinacoteca, professor da ECA-USP e orientador da tese, o mérito do estudo de Fernanda é reavaliar a posição de Almeida Júnior no contexto geral da arte brasileira: de artista infenso às influências estrangeiras e “autenticamente” brasileiro passa a ser compreendido como um pintor atento ao contexto internacional. “As contextualizações ancoradas na pesquisa do meio artístico europeu representam uma novidade se comparadas aos estudos prévios sobre o pintor”, diz.

Partida da monção (1897): cores esmaecidas e superfície sem brilho


1

2

1 museu paulista da USP / FOTO HÉLIO NOBRE / JOSÉ RoSAEL  2 e 3 ACERvo da pinacoteca do estado de são Paulo / fotos Isabella matheuS

Amolação interrompida (1894): ênfase nos pequenos gestos

3

Caipira picando fumo (1893): figura cara aos modernistas e a Monteiro Lobato

Durante algum tempo, Almeida Júnior foi um dos poucos pintores em atividade no interior de São Paulo – residia e mantinha um ateliê em Itu. Em 1888, mudou-se para a cidade de São Paulo, montando um novo ateliê. Na época, artistas de todo o país procuravam se estabelecer no Rio de Janeiro, sede da Academia Imperial de Belas Artes, que facilitava o contato com a corte. Por causa da suposta fidelidade do pintor paulista ao seu meio, os modernistas o situaram no centro do debate sobre a necessidade de inventar uma identidade artística genuinamente nacional. “Esses críticos procuraram isolar Almeida Júnior dos contatos com técnicas e temas europeus e sustentar que ele não se deixou influenciar por elementos estrangeiros”, explica Fernanda. A historiadora estudou quatro obras criadas pelo artista entre 1888 e 1897: Caipiras negaceando (pertencente ao acervo do Museu Nacional de Belas Artes, no Rio), Caipira picando fumo, Amolação interrompida (ambas da Pinacoteca) e Partida da monção (da coleção do Museu Paulista da USP). Ela partiu da dissertação de mestrado “Revendo Almeida Júnior”, de Maria Cecília França Lourenço, professora na FAU-USP, que entre 1973 e 1981 fez o primeiro levantamento da produção do artista e da fortuna crítica – conjunto de estudos publicados sobre ele. Em 1983, Maria Cecília assumiu a diretoria da Pinacoteca, coordenando a execução de outro projeto, dessa vez para ampliar a catalogação da obra do pintor. Os estudos da hoje docente da FAU já contestavam a visão dos modernistas, que sabiam que o pintor tinha estudado na França, mas arPESQUISA FAPESP 246 | 93


PINTURA MUDA

gumentavam que ele havia deliberadamente se protegido dos estrangeirismos. “No entanto, as cores aquareladas de quadros como Partida da monção não eram adotadas por outros pintores brasileiros”, afirma Maria Cecília. Segundo ela, Almeida Júnior buscou manter a claridade das telas e evitar o que se chamava de sobreacabamento, caracterizado por uma aparência lisa que ocultava a pincelada. O efeito sem brilho, diz Maria Cecília, era comum na pintura mural e na decorativa, predominante na Europa, das quais o estilo de Almeida Júnior se aproximou. Além dos estudos de Maria Cecília, Fernanda se apoiou nos trabalhos de Chiarelli. Ele sustenta que, como parte de uma tendência renovadora geral estimulada pela crítica, a pintura histórica brasileira de artistas como Victor Meirelles e Pedro Américo deu lugar, no final do século XIX, a figuras e costumes da cultura popular brasileira Fernanda mostrou que, em Caipira picando fumo e Amolação interrompida, o artista adotou técnicas pictóricas do naturalismo francês, que consistiam em esfregar o pigmento quase seco sobre a tela para que ele impregnasse diretamente o tecido. Isso fez com que os brancos saltassem à vista, dando a sensação de tridimensionalidade das figuras e ressaltando a rusticidade e a mate94 | agosto DE 2016

Caipiras negaceando (1888): fundo escuro antes do contato com a pintura europeia

Em Partida da monção, Fernanda constatou que Almeida Júnior radicalizou o uso dos métodos absorvidos na Europa e aproximou sua obra da pintura decorativa do francês Puvis de Chavannes (1828-1894). Os pontos de convergência envolvem questões técnicas e a forma de arranjo dos personagens nas telas. A exemplo do francês, Almeida Júnior adotou cores claras e sem efeitos de contraste e escolheu composições sem protagonistas evidentes: os grupos de pessoas são dispostos de modo a voltar a atenção para as pequenas histórias e não para gestos grandiosos. Outro elemento de aproximação com Chavannes é o fato de haver figuras apenas esboçadas por um contorno, sem muita definição das fisionomias ou dos detalhes. “A pintura de Almeida Júnior é uma pintura muda, como se dizia também das obras de Chavannes”, compara a historiadora. A pesquisadora questiona a ideia de que os críticos e o público se sentiam fascinados pelos camponeses do artista no final do século XIX porque os personagens seriam a figuração da “alma paulista”. Para Fernanda, a atração por essas figuras decorria do fato de elas, por um lado, representarem a cultura regional, e, por outro, tenderem a desaparecer. “Para a ideologia da época, a figura do caipira é símbolo de um passado que deve ser superado, mas sua memória precisa ser preservada para a criação de uma identidade”, destaca. Para construir esse argumento, Fernanda se baseou em estudos sobre a obra do pintor francês Jean-François Milliet (1814-1875) segundo os quais os camponeses retratados pelo artista seriam a representação da essência da França, da mesma forma que, no Brasil, os camponeses de Almeida Júnior eram considerados a figuração da alma paulista. n

Projeto Um povo pacato e bucólico: Costume e história na pintura de Almeida Júnior (n° 2010/09282-0); Modalidade Bolsa de Doutorado; Pesquisador responsável Domingos Tadeu Chiarelli (ECA-USP); Investimento R$ 117.819,00.

Escola nacional de belas artes ibrem/minc – almeida Jr. 1888 / foto jaime acioli

rialidade da pintura. O procedimento tradicional na época era espalhar camadas de tinta semitransparentes e sobrepostas que ocultavam as pinceladas e ajudavam a simular a profundidade. A pesquisadora sustenta que essas técnicas foram aprendidas pelo pintor durante sua estada na Europa, entre 1876 e 1882, quando estudou na École de Beaux Arts de Paris com uma bolsa oferecida pelo imperador dom Pedro II e nas subsequentes visitas do artista ao continente. Em sua formação no Brasil, o artista havia aprendido apenas os procedimentos do ensino da academia, como a cópia de telas de mestres do Renascimento ou Barroco, além de um tratamento convencional de temas religiosos e históricos.


resenhas

A unidade na pluralidade André Botelho

E

eduardo cesar

Pluralidade urbana em São Paulo: Vulnerabilidade, marginalidade, ativismos Lúcio Kowarick e Heitor Frúgoli Jr. (orgs.) Editora 34 416 páginas | R$ 74,00

mbora não seja objeto exclusivo das ciências sociais, o urbano sempre integrou sua agenda de pesquisa. No Brasil, antes mesmo da institucionalização dessa disciplina como curso universitário, ocorrida na década de 1930. Pense-se em ensaios de Gilberto Freyre, como Sobrados e mucambos, ou Raízes do Brasil, de Sérgio Buarque de Holanda, apenas para exemplificar com clássicos que comemoram 80 anos de publicação este ano. Esses autores também se perguntavam sobre que urbano seria possível se divisar no Brasil, dada sua longa formação rural. Se essa lembrança das nossas raízes rurais em meio ao processo de transição ao urbano que então se esboçava parece inevitável, elas talvez continuem desempenhando seu papel, como exemplifica o fato de que, nas últimas décadas do século XX, dentre os filhos de trabalhadores rurais, apenas 1,1% tenha chegado à posição de “profissionais qualificados”. Assim, de um ponto de vista sociológico, o que está em jogo não é apenas a cidade em seu aspecto espacial e concreto, digamos, mas o complexo de ações, relações e processos sociais que forma com seus condicionantes e possibilidades em interação com fatores econômicos, políticos, culturais. Pluralidade urbana em São Paulo: Vulnerabilidade, marginalidade, ativismos contribui para os estudos do urbano no Brasil, em especial sobre a esfinge São Paulo, metrópole cujo incrível dinamismo urbano parece sempre prestes a devorar também os seus intérpretes, para recorrer à conhecida metáfora. Ao mesmo tempo, o livro atesta a consolidação e, sobretudo, a inovação intelectual contínua nesse campo de pesquisas. Expressão disso, aliás, é o fato de um dos organizadores da coletânea, Lúcio Kowarick, autor também da introdução e de um dos seus capítulos, poder ser considerado ele mesmo um clássico contemporâneo das ciências sociais – autor de trabalhos pioneiros e ainda fundamentais da tradição uspiana dos estudos urbanos. Ao lado de Kowarick, Heitor Frúgoli Jr. orquestra um grupo de diferentes especialistas que nos dão uma visão de conjunto muito rica da cidade de São Paulo em algumas de suas dimensões cruciais. Assim, o substantivo “pluralidade” que aparece no título do livro pode ser entendido inicialmente como relativo ao dinamismo próprio do seu obje-

to – o urbano e a metrópole paulistana – em suas diferentes dimensões e temas específicos. O livro compreende cinco seções: “Produções culturais da periferia”, em que são discutidas produções estéticas e demarcações identitárias dessas regiões da cidade e seus significados mais amplos; a segunda, “Moradia e vulnerabilidade”, destaca as habitações populares, como as persistentes, mas sempre renovadas, favelas e cortiços; a terceira seção, “Área central e marginalidade”, aborda os mesmos territórios urbanos dos capítulos anteriores, mas a partir da observação etno­gráfica; a seguinte, “Política na acepção ampla do termo”, volta-se tanto ao mapa dos votos nos partidos políticos quanto aos movimentos sociais e também às manifestações de junho de 2013 na cidade; e, por fim, a última seção da coletânea, “Segregação e violência urbana”, em que se trata desses temas centrais na e sobre a metrópole. Não é apenas na abordagem de alguns temas incontornáveis e na apresentação de outros emergentes na tradição dos estudos urbanos que a pluralidade da coletânea pode ser sentida. Esta é uma dimensão fundamental, como o plano apresentado já indica ao leitor. Mas pluralidade significa também que um objeto tão dinâmico e diverso como o urbano não pode ser pensado de uma só forma. Daí a riqueza representada também pelas diferentes abordagens, metodologias e referenciais teóricos explorados nos capítulos da coletânea. Se pluralidade significa diversidade e até mesmo divergência e, nesse sentido, traz um convite ao diálogo, ela aparece no livro como que vazada pela questão das hierarquias e das desigualdades sociais na produção e reprodução do urbano em suas diferentes dimensões. E é nesse aspecto que Pluralidade urbana em São Paulo parece encontrar sua unidade intelectual: um ponto pelo qual, por diferentes caminhos, os seus capítulos acabam por passar ou chegar; um fio sociológico que, talvez, constitua, ele mesmo, a marca forte da abordagem das ciências sociais, também no campo vasto e multifacetado dos estudos urbanos.

André Botelho é professor do Departamento de Sociologia e do Programa de Pós-graduação em Sociologia e Antropologia do Instituto de Filosofia e Ciências Sociais da UFRJ. É pesquisador do CNPq e da Faperj.

PESQUISA FAPESP 246 | 95


O pensamento como atitude

A

Temas de filosofia Gerd Bornheim (organização de Gaspar Paz) Edusp 304 páginas | R$ 56,00

96 | agosto DE 2016

coletânea de textos de Gerd Bornheim, Temas de filosofia, é uma iniciativa oportuna e pertinente por vários motivos. Além da razão ligada à importância do autor e sua relevância no panorama filosófico nacional, o livro oferece a possibilidade de um contato privilegiado com a pluralidade de interesses que motivaram a atividade do filósofo durante sua trajetória intelectual, sob muitos aspectos excepcional. Dentre as virtudes que o leitor notará ao percorrer os textos, destaca-se a confluência da diversidade de assuntos com a unidade de estilo, que certamente contribuiu para conferir ao intelectual gaúcho uma posição que pode ser considerada ímpar. Bornheim praticou desde muitos anos um gênero de pensamento filosófico que só recentemente a ortodoxia acadêmica começa a aceitar. Trata-se de pensar filosoficamente para além dos parâmetros técnicos da lógica convencional do método analítico e, desse modo, libertar-se das amarras absurdas que podem fazer da filosofia uma “especialidade” ao sabor da ilusão de uma “cientificidade”. Esta espécie de servidão voluntária a uma pretensa tecnologia do pensamento foi, desde sempre, uma das mais veementes recusas do autor. Nesse sentido, os comentários biográficos de Gaspar Paz, organizador do volume, permitem compreender a originalidade de um perfil investigativo que, desde muito cedo, já reivindicava a liberdade que o autor via como necessária para romper com os nichos e os rótulos e desenvolver uma reflexão marcada pela unidade múltipla que se constitui como fidelidade às figuras do pensamento: história, sociedade, política, artes e, sobretudo, um apego obstinado à condição concreta da realidade humana. É necessário ressaltar as dificuldades inerentes a esta opção pela “universalidade concreta”: pois é claro que não se trata de abandonar os cânones em prol de um sobrevoo distanciado da diversidade existencial e cultural. Pelo contrário, a desenvoltura necessária para pensar livremente só se adquire pela disciplina rígida no trato com a articulação histórica e temática dos séculos de pensamento. O que vemos em Bornheim é o máximo rigor incorporado ao mais alto grau de liberdade e de inventividade. Nos textos em que analisa autores ou temas historicamente deter-

minados, sempre encontramos, mesclado à fidelidade hermenêutica, algo de inovador e ainda não percebido, que enriquece a descrição do assunto. Reciprocamente, quando o autor se dedica a reflexões gerais sobre grandes temas articuladores do pensamento ocidental, percebemos o lastro de erudição que pontua com competência as interpretações de longo fôlego. Uma via de compreensão dessa atitude seria talvez entender que se trata de uma inspiração profundamente enraizada no propósito de acompanhar a criação, seja intelectual ou poética – a intuição que Bergson via por trás dos sistemas de ideias, assim como a simpatia presente na percepção literária e artística da realidade em seus traços mais profundos. E aqui tocamos em um aspecto essencial do que assinalamos como a atitude de Bornheim: muito mais do que método e análise, uma empatia com o que há de misterioso na unidade diversificada do ato de pensar, na motivação profunda da expressão nos artistas plásticos, nos romancistas, nos dramaturgos, nos poetas e nos filósofos. Aquilo a que o filósofo se expõe quando abre sua alma (e não apenas adestra seu intelecto) não é um objeto platônico de contemplação. Gaspar Paz teve o cuidado de nos mostrar, por via da seleção dos textos, que a finalidade do pensamento é tornar-se sensível à realidade vivida e sofrida dos seres humanos. Quando o tempo e a ocasião criarem as condições para uma compreensão da totalidade singular do pensamento de Gerd Bornheim, provavelmente se constatará que a racionalidade dialética, que ele soube compreender profundamente, só se torna uma autêntica disposição do pensar (e não um mero instrumento conceitual) quando pode abordar o processo de construção da existência, pelo qual o ser humano se faz e se cria por meio de sua liberdade, nos múltiplos modos de invenção, todos contemplados no pensamento de Bornheim: ciência, arte, filosofia. A sequência dos textos neste livro enseja o percurso histórico e temático das grandes questões que permanecem abertas à invenção e criação de um pensamento sempre aberto ao inesperado. Franklin Leopoldo e Silva é professor titular do Departamento de Filosofia da Faculdade de Filosofia, Letras e Ciências Humanas da USP.

eduardo cesar

Franklin Leopoldo e Silva


carreiras Comunicação científica

Sob os holofotes

ilustraçãO  daniel almeida

Saber falar em público pode ajudar no desenvolvimento da carreira do pesquisador A apresentação de resultados de pesquisa em reuniões de departamento na universidade, seminários ou conferências faz parte do calendário de atividades da maioria dos pós-graduandos. Ainda assim, falar em público pode ser um desafio para muitos pesquisadores. Não raro, as apresentações se apoiam em gráficos à primeira vista confusos e slides com textos longos e herméticos que podem comprometer a qualidade da apresentação e a compreensão do seu conteúdo pela audiência. Aprender a fazer uma apresentação boa e equilibrada, seja para pesquisadores da mesma área ou para o público em geral, valoriza o trabalho e pode ser importante no desenvolvimento da carreira do pesquisador. Falar bem em público requer prática, segundo o biólogo e comunicador científico Atila Iamarino, pós-doutor pelo Instituto de Ciências Biomédicas da Universidade de São Paulo (ICB-USP) e apresentador do canal Nerdologia, no YouTube, em que discute ciência e assuntos da cultura pop. Uma forma de se preparar é investir na divulgação de seus trabalhos fora do ambiente acadêmico, por meio de textos em blogs, vídeos ou podcasts. “Isso pode ajudar os pesquisadores a ter mais desenvoltura na hora de falar sobre o que eles estão fazendo para um público mais especializado”, sugere. Outro caminho possível, segundo ele, é acompanhar palestras como as TED Talks e podcasts como o This Week Virology, que apresentam fatos científicos de forma atraente.

“Fazer uma boa apresentação nada mais é que contar uma história, com começo, meio e fim”, afirma Mauro de Freitas Rebelo, do Instituto de Biofísica Carlos Chagas Filho da Universidade Federal do Rio de Janeiro (UFRJ). Além de se apresentar em eventos científicos como pesquisador, Rebelo também atua como divulgador científico. Segundo ele, para diminuir o nervosismo e a ansiedade, pode-se, em alguns casos, começar a apresentação com uma breve anedota. “Sempre conto uma história minha e, então, coloco a ciência no meio.” É também fundamental situar o conteúdo da apresentação em um contexto mais amplo de pesquisa e ressaltar sua importância para a área antes de discutir o conteúdo que será apresentado. Para que isso funcione, explica a psicóloga Ana Arantes, do Laboratório de Aprendizagem Humana, Multimídia Interativa e Ensino Informatizado da Universidade Federal de São Carlos (UFSCar), é importante

que o pesquisador se prepare com antecedência e conheça o público para o qual irá falar. “É preciso estabelecer previamente o objetivo da apresentação: definir um conceito, explicar um método ou apresentar alguns dados”, recomenda. “A partir daí é possível definir a melhor maneira de transmitir a mensagem.” De modo geral, é recomendável que as apresentações sejam curtas, com duração de até 20 minutos. Hoje, segundo Atila, existem na internet várias plataformas que podem ajudar os pesquisadores a fazer uma apresentação visualmente dinâmica e com uma aparência amigável. É o caso do Keynote e do Prezi, softwares que permitem a criação de apresentações mais atraentes. Também é importante pensar no formato da apresentação. “Evitar animações e textos longos, tomar cuidado com as cores e o tamanho da fonte são alguns cuidados básicos que se deve ter ao elaborar uma apresentação”, conclui. n Rodrigo de Oliveira Andrade PESQUISA FAPESP 246 | 97


perfil

Ferramentas ajudam a criar currículos digitais

Comunicação eficiente

Currículos impressos em papel tamanho A4 e enviados pelo correio contam cada vez menos no momento de pleitear uma vaga de trabalho. Hoje há ferramentas eletrônicas, quase todas em inglês, que auxiliam pesquisadores a preparar currículos digitais elegantes e atraentes. Todas permitem a edição do conteúdo em qualquer idioma. Uma das opções é o resume.com. Em três passos é possível escolher um modelo de layout, editar o conteúdo e publicá-lo on-line. A plataforma gera um endereço eletrônico que pode ser usado para compartilhar o currículo com quem se deseja. Já o resumesimo.com oferece diferentes estilos de layout, é fácil de usar e conta com um assistente que orienta o usuário durante a elaboração do currículo. Outra ferramenta, mais sofisticada, dinâmica e interativa, é o Re.vu. Ela permite fazer resumos da vida profissional visualmente atrativos e originais, por meio de opções personalizadas de layout e outras ferramentas de navegação. Além disso, oferece um serviço de estatística, a partir do qual o usuário pode analisar o alcance e o impacto de seu currículo. Já o super-resume.com é o mais indicado para quem quer um currículo com um aspecto mais sério. A plataforma oferece vários tipos de layout, desenvolvidos por profissionais de relações públicas e recursos humanos. Também conta com um mecanismo que busca na internet os melhores exemplos de currículo para cada tipo de atividade profissional, além de ferramentas que permitem saber por quantas pessoas o currículo foi visto. n R.O.A.

O matemático Jackson Itikawa voltou em julho de uma rápida viagem ao Reino Unido com 26 novos contatos no telefone, todos de pesquisadores de outros países com quem troca ideias sobre divulgação científica. O grupo se conheceu durante a final internacional do FameLab, uma das maiores competições de comunicação científica no mundo, realizada no dia 9 de junho no Festival de Ciência de Cheltenham, na Inglaterra. Competindo com participantes dos Estados Unidos, do Reino Unido e da Coreia do Sul, entre vários outros, Itikawa foi o primeiro brasileiro a representar o país no evento, no qual teve apenas três minutos para falar do tema que escolhera: a importância dos números primos em áreas como a criptografia. Diante do público e de uma bancada de jurados, Itikawa explicou como os números primos servem para compor a linguagem cifrada que garante a segurança de dados confidenciais expostos virtualmente, como senhas e mensagens enviadas por meio de aplicativos como o WhatsApp. “Embora não tenha ganhado a competição, a experiência ajudou a impulsionar meu entusiasmo pela divulgação científica”, conta o matemático, vencedor da etapa nacional do FameLab, realizada em maio pelo British Council e pela FAPESP (ver Pesquisa FAPESP nº 244). Atualmente o pesquisador faz pós-doutorado no Instituto de Ciências Matemáticas e Computação da Universidade

98 | agosto DE 2016

de São Paulo (ICMC-USP), em São Carlos. Foi lá, no semestre passado, que começou a dar aulas voluntárias para estudantes do curso de graduação em sistemas da informação. “Utilizar uma linguagem mais acessível se tornou um desafio prazeroso.” Aos poucos, o matemático foi se soltando em sala de aula. “Passei a explicar conceitos complexos por meio de analogias e usando o bom humor.” Na época, Itikawa recebeu um e-mail da FAPESP convidando seus bolsistas a participarem da edição brasileira do FameLab. “Decidi me inscrever porque aquela poderia ser uma oportunidade de mostrar que a matemática pode ser interessante e divertida, diminuindo o medo que muitas pessoas sentem da disciplina.” De acordo com Itikawa, a experiência o ajudou a desenvolver novas habilidades em comunicação científica, entre elas falar em público com desenvoltura e fazer apresentações mais concisas. “No Famelab o tempo é curto para se apresentar. Isso exige que o pesquisador escolha bem as palavras e as utilize de forma precisa”, afirma. Algumas recomendações foram passadas por Malcolm Love, especialista britânico responsável pelos treinamentos em comunicação do FameLab em diversos países. “Um dos exercícios que ele passou foi encarar o público com confiança. Foi importante para mim, porque sempre tive dificuldade de olhar nos olhos das pessoas”, relata Itikawa, para quem as recomendações serão úteis não apenas para comunicar a ciência para o público, mas também em congressos. n Bruno de Pierro

eduardo Cesar

Matemático adquiriu novas habilidades de difusão científica após participar de torneio internacional


classificados

­_ Anuncie você também: tel. (11) 3087-4212 | www.revistapesquisa.fapesp.br


or R ões p

$ 10 0

ar a iais p c e p es res i çõ e s fesso o r p Cond e a n te s e s tu d

i 12 ed

ç

O que a ciência brasileira produz você encontra aqui

revistapesquisa.fapesp.br | assinaturaspesquisa@fapesp.br


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.