Scientific American - Aula aberta 10

Page 1

Roteiros temáticos para atividades em sala de aula

Aula Aberta

Matriz de referência do

ENEM

BRASIL

O prazer de ensinar ciências

ANO I - NO 10 - 2012 - R$ 6,90

BIOLOGIA

A fascinante evolução do olho Órgão complexo carrega as cicatrizes da seleção natural

QUÍMICA

MATEMÁTICA

Etanol A história da celulósico não computação, compromete a da origem aos safra de alimentos dias atuais FÍSICA

Sobre duas rodas: as leis desse equilíbrio

GEOGRAFIA

Por que a febre do planeta hoje é a pior?



SUMÁRIO

28

SCIENTIFIC AMERICAN BRASIL AULA ABERTA No 10

BIOLOGIA

A fascinante evolução do olho Cientistas já têm uma visão clara de como surgiu esse órgão tão complexo

22

FÍSICA

Com Newton e Arquimedes na garupa Motocicleta é um veículo que tira vantagem das leis da física

40

QUÍMICA

Desafios para transformar conceitos em realidade Etanol celulósico é uma alternativa energética que exige menor área de cultivo que a cana-de-açúcar

34

GEOGRAFIA

O último grande aquecimento global O problema maior do aquecimento global pode estar na velocidade com que ocorre hoje

46

MATEMÁTICA

A origem da computação Era da informação começou quando se percebeu que máquinas poderiam imitar o poder da mente SCIENTIFIC AMERICAN BRASIL AULA ABERTA

3


SEÇÕES 6 8

10 NOTAS

ATITUDES

Energia sustentável para todos

Seu equipamento novinho está prestes a se tornar obsoleto. Não o jogue no lixo ■ Exposição rastreia a reconstituição de uma coleção de escritos de Arquimedes há muito tempo desaparecida ■ Peixes transparentes ajudam neurocientistas a encerrar debate científico sobre se a sesta melhora o desempenho cerebral ■ Novos materiais prometem melhor acesso a água limpa ao redor do mundo ■ A recente descoberta de que os suplementos de vitamina D são desnecessários expõe uma divergência entre pesquisadores de nutrição ■ Uma nova técnica de imagem por computador mostra como as células nervosas se comunicam – uma molécula por vez ■

Energia solar: acesso financeiro facilitado

6

MEU PERCURSO 8 15 Constantino Tsallis

www.sciam.com.br

BRASIL

COMITÊ EXECUTIVO Jorge Carneiro, Luiz Fernando Pedroso, Lula Vieira, Cidinha Cabral e Ana Carolina Trannin

Farcetta e Lorena Travassos (assistente) ASSISTENTE DE REDAÇÃO: Elena Regina Pucinelli SUPERVISORA DE REVISÃO: Edna Adorno COLABORADORES: Isaías Zilli, Luiz Roberto Malta e Maria Stella Valli (revisão) ESTAGIÁRIOS: Denise Martins e Rodrigo Seixas

EDITOR: Luiz Marin DIAGRAMAÇÃO: Juliana Freitas

PUBLICIDADE publicidade@duettoeditorial.com.br DIRETORA: Cidinha Cabral cidinhacabral@duettoeditorial.com.br DIRETORA DE MERCADO PUBLICITÁRIO: Sandra Garcia GERENTE: Leandro Dias COORDENADOR DE PUBLICIDADE: Robson de Souza

redacaosciam@duettoeditorial.com.br EDITOR-CHEFE: Ulisses Capozzoli EDITORA DE ARTE: Simone Oliveira Vieira ASSISTENTES DE ARTE: João Marcelo Simões e Ana Salles PESQUISA ICONOGRÁFICA: Gabriela

REPRESENTANTES COMERCIAIS Alagoas/Bahia/ Pernambuco/Sergipe Pedro Amarante – (79) 3246-4139/ 9978-8962 Brasília Sônia Brandão – (61) 3321-4304 Espírito Santo Dídimo Effgen – (27) 3229-1986/ 3062-1953/ 8846-4493/ 9715-7586

DIRETOR DE REDAÇÃO Janir Hollanda janirhollanda@ediouro.com.br

Aula Aberta

4 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

16 FÍSICA NO ESPORTE Salto em distância

18 LIVROS

Abordagem sobre a tabela periódica vai além dos elementos químicos Relato estrangeiro revela o que muitos desconhecem da Amazônia

19 INTERNET

Uma lista de vídeos e endereços para visitar, inspirar-se e explorar

20 COMO FUNCIONA

Absorção de choque: prédios antiterremoto

55 PARA O PROFESSOR

Roteiros elaborados por professores especialistas com sugestões de atividades para sala de aula

66 ENSAIO

Temos de saber usar melhor nossa capacidade única de delinear a evolução do mundo

Rio de Janeiro Carla Torres – (21) 2224-0095 PROJETOS ESPECIAIS – FARMACÊUTICO EXECUTIVO DE NEGÓCIOS: Walter Pinheiro MARKETING GERENTE DE MARKETING: Moacir Nóbrega MARKETING EVENTOS: Claudio Rahal COORDENADORA DE MARKETING: Camilla Milanello ANALISTA DE MARKETING: Camila Carneiro OPERAÇÕES DIRETORA: Ana Carolina Tranin ana.carolina@duettoeditorial.com.br GERENTE FINANCEIRA: Arianne Castilha SUPERVISORA DE PLANEJAMENTO: Dilene Cestarolli CIRCULAÇÃO Circulação Avulsa PRODUÇÃO GRÁFICA: Wagner Pinheiro ASSISTENTE DE PCP: Paula Medeiros VENDAS AVULSAS: Fernanda Ciccarelli


EDITORIAL N

o Ano Internacional da Energia Sustentável para Todos, nosso tema principal não poderia ser outro. O termo sustentável diz tudo: quando se fala em soluções energéticas para a humanidade, o assunto deve ser tratado obrigatoriamente sob a perspectiva dos impactos ambientais, em médio e longo prazos, causados na geração, distribuição e utilização da energia. Atribui-se o estado febril do planeta hoje ao crescimento exponencial da demanda desse item de consumo no mundo. Comparativamente, o aquecimento global que experimentamos agora não é maior que o do último máximo termal. A diferença está na velocidade desse fenômeno nos dois períodos, como evidencia o interessante artigo de Lee Kump. Esforços para reduzir o subproduto térmico indesejável associado às atividades humanas passam, certamente, pela procura de alternativas mais eficientes, ou seja, com melhor relação entre potências útil e consumida. No caso da biomassa, o álcool obtido da celulose é uma das opções que merece ser discutida, pela possibilidade de ocupar menos área de cultivo e, assim, não comprometer a safra de alimentos. Ainda não é uma solução limpa, como as que se almejam implantar para suprir as necessidades energéticas de cerca de 20% da população mundial, que não tem acesso à eletricidade em seus domicílios. Mas é uma sugestão viável. Esta edição ainda contempla outros assuntos importantes. Atravessamos hoje uma crise mundial, refletida pela queda em cadeia das bolsas de valores. Um fenômeno de diversas

interpretações que muitas vezes pode ser previsto por modelos da física. Sim, isso mesmo. Há pouco tempo ouvi o relato de CAPA: I© Frazer Hudson/Ikon Images/ alguém que havia Getty Images participado da reunião de um fundo de investimentos. Ele dizia-se surpreso porque um dos palestrantes da instituição financeira era um físico, responsável pela análise do mercado de ações. Como a física pode servir a uma atividade tão desobediente a leis como essa, capaz de erigir ou derrubar fortunas da noite para o dia? É provável que esse espanto seja compartilhado por muitos que desconhecem as aplicações da física estatística, algumas das quais são assinaladas por Constantino Tsallis, o cientista brasileiro cujo trabalho é citado mundialmente. Ciência abrangente, a física explica também por que a velocidade e a força de um atleta são decisivas para um bom salto em distância, assim como ensina quais são os parâmetros importantes no design de veículos de duas rodas, assunto escolhido para a elaboração de um roteiro pedagógico abordando as forças que atuam no movimento das motos e bikes. O equilíbrio sobre elas é uma questão que gerou controvérsias, como o leitor verá. Boa leitura e boas aulas.

Luiz Carlos Pizarro Marin redacaosciam@duettoeditorial.com.br

Assinaturas GERENTE: Rosemery Andrade COORDENADOR DE VENDAS PESSOAIS: Antonio Carlos de Abreu NÚCLEO MULTIMÍDIA DIRETORA: Mariana Monné REDATORA DO SITE: Fernanda Figueiredo WEB DESIGNER: Rafael Gushiken COORDENADORA DE VENDAS WEB: Michele Lima ASSISTENTE ADMINISTRATIVA: Sabrina de Macedo SCIENTIFIC AMERICAN INTERNATIONAL EDITOR IN CHIEF: Mariette DiChristina MANAGING EDITOR: RICKI L. RUSTING CHIEF NEWS EDITOR: PHILIP M. YAM SENIOR WRITER: Gary Stix EDITORS: Davide Castelvecchi, Mark Fischetti, Steve Mirsky, Michael Moyer, George Musser, Christine Soares, Kate Wong DESIGN DIRECTOR: Michael Mrak PHOTOGRAPHY EDITOR: Monica Bradley

VICE PRESIDENT, OPERATIONS AND ADMINISTRATION: Frances Newburg PRESIDENT: Steven Inchcoombe SCIENTIFIC AMERICAN BRASIL é uma publicação da Ediouro Duetto Editorial Ltda., sob licença de Scientific American, Inc.

EDIOURO DUETTO EDITORIAL LTDA. Rua Cunha Gago, 412, cj. 33 – Pinheiros São Paulo/SP – CEP 05421-001 Tel. (11) 2713-8150 – Fax (11) 2713-8197 CENTRAL DE ATENDIMENTO ASSINANTES E NOVAS ASSINATURAS Tel: (11) 3038-6300 / Fax: (11) 3038-1415 (De segunda a sexta das 8h às 20h) atendimento@duettoeditorial.com.br queroassinar@duettoeditorial.com.br www.lojaduetto.com.br www.assineduetto.com.br

Mais informações sobre sua assinatura, mudança de endereço, renovação, reimpressão de boleto, solicitação de reenvio de exemplares e outros serviços acesse: www.sacwebduettoeditorial.com.br Números atrasados e edições especiais podem ser adquiridos através da Loja Duetto ou pelo telefone (11) 2713-815, ao preço da última edição acrescido dos custos de postagem, mediante disponibilidade de nossos estoques. IMPRESSÃO: Ediouro Gráfica Aula Aberta no 10, ISSN 2176163-9. Distribuição para todo o Brasil: DINAP S.A. Rua Doutor Kenkiti Shimomoto, 1678.

CONHEÇA O SITE www.sciam.com.br/aula_aberta

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

5


ATITUDES ENERGIA SUSTENTÁVEL PARA TODOS

As nações mais pobres dependem dessa política magine uma comunidade sem acesso a energia elétrica. Para começar, observe ao seu redor tudo que depende de eletricidade, desde alimentos, simples objetos até aparelhos domésticos, de iluminação, aquecimento, refrigeração. Esta página não estaria disponível para leitura sem que uma infinidade de elétrons fossem movimentados a fim de produzi-la, num processo que tem início assim que o pensamento se materializa na memória e na tela do computador. Agora projete essa situação para uma comunidade inteira e pense na abrangência dos problemas que a ausência de uma rede de distribuição de energia elétrica pode trazer para a coletividade. Isso significa carência de saneamento básico, de iluminação eficiente e precariedade nos serviços públicos essenciais, que incluem saúde e educação entre os principais. Podemos até pensar que essa fantasia está longe de nossa realidade, graças ao fato de nossa fonte primária principal de abastecimento elétrico domiciliar e industrial ser hidráulica. Mas não é verdade: embora os números comparativos em relação ao mundo sejam baixos na América do Sul, eles ainda são significativos. Basta olhar os dados dispostos no mapa desta página e da seguinte para constatar que ainda há lares e mesmo comunidades que não desfrutam da eletricidade. No mundo todo, o número é mais impressionante: 20% da população não têm acesso a eletricidade, ou seja, 1,4 bilhão usa combustíveis fós6 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

seis ou biocombustíveis para cozinhar seus alimentos, iluminar e aquecer suas habitações. São atividades realizadas com processos rudimentares, que resultam certamente em prejuízos ao ambiente e, em muitos casos, à saúde. Segundo a Organização Mundial da Saúde (OMS), os gases resultantes da queima de carvão ou lenha contribuem para a morte de cerca de 2 milhões de pessoas anualmente no mundo. Tanto que há uma iniciativa público-privada, Aliança Global por Fogões Limpos, destinada a levar a essas populações fogões especialmente desenvolvidos para oferecer bom rendimento e com menor emissão de gases prejudiciais. Os números da pobreza energética explicam a importância do ato de dezembro de 2010 da Assembleia Geral das Nações Unidas que declarou 2012 o Ano Internacional da Energia Sustentável para Todos, visando a realização de diversos eventos no mundo inteiro, com o objetivo de despertar a atenção para o problema da carência de eletricidade e gerar investimentos que permitam discutir e providenciar os meios de facilitar o acesso a ela de modo limpo e seguro. O site da Energia Sustentável para Todos está disponível em: www.sustainableenergyforall.org/ ou www.peaunesco-sp.com.br/ano_inter/ano_energia/ano_internacional_ da_energia_sustentavel_para_todos_rio_mais_20.pdf Energia é necessária para todos, mas precisa ser limpa, única forma de evitar que transformemos uma solução em um problema maior. (L. M.)

América Latina 4 27

2

8

NOTA: MAPAS SEM ESCALA AS FRONTEIRAS E AS DESIGNAÇÕES USADAS NOS MAPAS NÃO IMPLICAM ACEITAÇÃO OU ENDOSSO POR PARTE DA AGÊNCIA INTERNACIONAL DE ENERGIA (IEA)

WORLD ENERGY OUTLOOK 2010: ENERGY POVERTY - HOW TO MAKE MODERN ENERGY ACCESS UNIVERSAL? © OECD/ INTERNATIONAL ENERGY AGENCY 2010, FIGURA 1, PÁGINA10 (mapa); © BIKAS DAS/AP PHOTO/GLOWIMAGES

I


China 8 Outros países asiáticos em desenvolvimento

Índia África subsaariana

23

12

381

281

59

40 212

328 108

120 465

544

População mundial sem acesso a eletricidade 1 441

1 213

214

161

1 227

1 052

2009

2030 População rural

População urbana

Os gases resultantes da queima de biomassa durante a cocção matam mais de 2 milhões de pessoas no mundo anualmente

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

7


ATITUDES ENERGIA SOLAR: UM PLANO ACESSÍVEL A TODOS

Inovação financeira na implantação de painéis Algumas empresas se empenham para oferecer energia às casas sem custo inicial

O

maior obstáculo para o melhor aproveitamento da energia solar é o dinheiro. Instalar um conjunto de painéis solares grandes o suficiente para produzir toda a energia necessária para abastecer um edifício custa o equivalente a pagar antecipadamente sete a dez anos de sua conta de luz – e isso contando com incentivos federais e estaduais. Um sistema inovador de financiamento, no entanto, abriu uma possibilidade adicional a pessoas que queiram reduzir suas emissões (pegadas) de carbono e diminuir a conta de eletricidade: instalar os painéis gratuitamente e pagar pela energia conforme o uso. O sistema funciona mais ou menos como uma hipoteca. Organizações e pessoas que buscam retorno constante de seus investimentos usam seus recursos para comprar os painéis solares. Direta ou indiretamente, os proprietários de casas pagariam pela eletricidade produzida em seu próprio telhado, e o custo por quilowatt-hora seria menor que o fornecido pela rede elétrica. Os investidores garantem um investimento seguro – a última geração em tecnologia de painéis solares consegue operar de maneira confiável durante anos – e os usuários reduziriam a conta mensal, sem falar na satisfação em diminuír significativamente as emissões de carbono. “Essa é uma maneira de obter energia solar sem precisar de um investimento inicial, e que resulta 8 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

em economia desde o primeiro dia. Isso é uma novidade”, assegura o cofundador da SolarCity, Peter Rive. A SolarCity é a maior instaladora de painéis solares domésticos a adotar essa estratégia nos Estados Unidos. Fundada em 2006 por dois irmãos que são também empreendedores do Vale do Silício, a empresa aluga seus painéis aos usuários, mas a eletricidade gerada é gratuita. O resultado líquido é energia muito mais barata (os usuários ainda precisam de energia convencional quando não há sol) e uma conta mensal da SolarCity. O total de gastos acaba sendo inferior à conta antiga. A SunRun de São Francisco oferece aos consumidores um pacote semelhante, com a diferença de que vende a eletricidade aos usuários em vez de cobrar o aluguel dos painéis. Cidades como Berkeley e Boulder, também nos Estados Unidos, são pioneiras em sua própria versão de financiamento mediante empréstimos individuais de todo o valor do custo dos painéis solares e de sua instalação. O projeto é pago através de obrigações municipais, e o proprietário arca com empréstimo durante 20 anos como parte de seu imposto sobre a propriedade. O resultado é o mesmo, não importa a rota que o consumidor siga: a nova obrigação, sob a forma de impostos, de aluguel ou de contrato por eletricidade, acaba custando menos que a conta de energia convencional.

“O que estamos vendo na verdade é uma transição na maneira como pensamos a compra de bens e serviços energéticos”, avalia Daniel M. Kammen, diretor do Renewable and Appropriate Energy Laboratory da University of California em Berkeley. Kammen, que realizou a análise inicial do modelo de financiamento de Berkeley, acredita que, mudando para o financiamento, os consumidores podem transpor a desvantagem inerente das fontes renováveis em comparação às fontes de energia tradicionais: a infraestrutura da rede elétrica já está paga e, em muitos casos, é subsidiada há décadas. Todas as três abordagens estão se expandindo rapidamente nos Es-


CORTESIA DE SOLARCITY

A eletricidade gerada pelos painéis acaba custando menos que a conta de energia convencional

tados Unidos. Apesar de o programa de Berkeley ter menos de dois anos, dez estados diferentes aprovaram leis que permitem que suas cidades criem programas de empréstimo financiado semelhantes ao de Berkeley. Com a aprovação do projeto de lei de Waxman-Markey, a opção para que cidades iniciem esses programas se tornará uma lei federal. A SunEdison, em Maryland, está atualmente ativa em nove estados. A SolarCity, com mais de 4 mil clientes, atua na Califórnia, Arizona e Oregon, e promete anunciar novos estados depois do ano-novo. Até agora ainda não foi possível reduzir o custo total de energia solar

para atingir “paridade com a rede”, isto é, obter o mesmo preço da eletricidade fornecida pelas companhias energéticas locais, sem que haja subsídios federais, como o crédito de impostos sobre investimentos, que reduz os impostos dos bancos que financiam tais projetos. Esses subsídios, que somam 30% do custo da instalação dos painéis solares, estão garantidos por pelo menos oito anos. Ao final desse tempo, a SolarCity e seus concorrentes afirmam que não precisarão mais deles. “A paridade com a rede depende de diversos fatores”, justifica Attila Toth, vice-presidente de marketing da SunEdison, citando o custo de capital,

o custo dos painéis e de sua instalação, e da intensidade de luz solar de determinada região. Enquanto o custo de eletricidade de combustíveis fósseis aumentou de 3% para 5% por ano nesta última década, o custo dos painéis solares caiu em média 20% cada vez que sua base instalada dobrou de tamanho. A paridade com a rede está onde essas linhas de tendência se cruzam – depois disso, a energia solar terá o potencial para ir além do abastecimento residencial. É improvável que seja coincidência que Elon Musk, presidente da fábrica de automóveis elétricos Tesla Motors, pertença ao conselho de diretores da SolarCity. – Christopher Mims SCIENTIFIC AMERICAN BRASIL AULA ABERTA

9


NOTAS TECNOLOGIA

Gadgets são lixo

Seu equipamento novinho está prestes a se tornar obsoleto. Não o jogue no lixo olta e meia o público se mobiliza para obrigar uma indústria a minimizar seus impactos ambientais. Em razão disso, os fabricantes de carros agora oferecem modelos híbridos, elétricos e movidos a combustível alternativo. A indústria de refrigerantes produz suas garrafas com muito menos plástico. Novas leis reduziram a chuva ácida em 76% desde 1980; e assim por diante. Mas uma indústria em particular continua deixando rastros ecológicos desastrosos porque não sofre pressão popular: a dos produtos eletrônicos vendidos ao consumidor. Você sabe: os fabricantes daquele bilhão de celulares, dos 100 milhões de câmeras, infinitos laptops, Game Boys, aparelhos de TV e music players que compramos todos os anos. A maioria dos aparelhos que substituímos vai parar no lixo. A agência de proteção ambiental americana calculou que, em 2007, foram descartados 2,25 milhões de toneladas de equipamentos eletrônicos – 82% disso foi parar em aterros sanitários ou lixões. Isso representa uma quantidade exorbitante de substâncias químicas tóxicas e metais perigosos que ninguém, ninguém realmente quer ver penetrando em lençóis freáticos e reservatórios de água. Mas onde está a indignação pública? Onde estão os anúncios dos serviços de utilidade pública, os lobistas, a conscientização nacional? Eles inexistem por uma razão muito simples: a “descartabilidade” que está no coração do modelo de negócios dessa indústria é atraente demais para todos os envolvidos. É simples dar ou vender seu carro velho, roupas, utensílios e apetrechos do bebê ou móveis, porque todas essas coisas ainda podem ter valor depois que você não as quer mais. 10 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

Mas produtos eletrônicos? Nem tanto. Quem vai querer seu celular de quatro anos atrás, seu iPod preto e branco, sua câmera de dois megapixels? O programa de upgrade telefônico lançado pela operadora de telecomunicações americana Verizon chamava-se “New Every Two”. Essa promoção, em que qualquer cliente que completasse dois anos de contrato podia pegar gratuitamente um celular barato ou obter um bom desconto na aquisição de um modelo novo, acabou recentemente. Mas ela exemplifica bem a obsessão nacional americana de sempre ter os aparelhos eletrônicos mais recentes e “legais”. A maioria das pessoas começaria a sentir-se constrangida ao carregar um celular, uma câmera, um music player ou laptop de três anos. Elas no-

tam que os últimos lançamentos são mais finos, rápidos e vistosos. E pronto: é hora de atualizar, fazer um upgrade. Esse é o modelo de negócios da indústria, e ele funciona espetacularmente bem. Nem o consumidor, nem os fabricantes têm um estímulo para mudar. Eles não tentarão vender menos produtos, e nós não gostaríamos que fizessem isso. Será que algum dia haverá uma passeata em que as pessoas gritem “parem de aprimorar os gadgets” e “reduzam o ritmo do progresso”? Não, a solução mais realista é não mexer no modelo de negócios – mas combater suas consequências desperdiçadoras em duas frentes. Primeiro, podemos pressionar as empresas eletrônicas a tornar os produtos menos prejudiciais. Fatores

ILUSTRAÇÃO DE JOHN HERSEY

V


CORTESIA ARCHIMEDES PALIMPSEST /JOHN DEAN PHOTOGRAPHY

que ninguém costumava levar em conta (hormônios no leite, carros de consumo eficiente) transformaram-se em importantes estratégias de marketing. Por que os fabricantes de produtos eletrônicos não poderiam divulgar a eficiência energética, os componentes não tóxicos e a embalagem minimalista em suas propagandas? A Apple faz isso. Sua página de relatórios ambientais na web (www.apple.com/environment/reports) computa o impacto do efeito estufa de cada um de seus produtos, não só enquanto você o utiliza, mas também durante sua produção e posterior reciclagem. A empresa faz propaganda também de suas embalagens compactas, materiais valiosos para a reciclagem (como o alumínio) e substâncias químicas inócuas. Nada justifica que as práticas ambientais de outras companhias não possam ser fatores de vendas. Em segundo lugar, nós, consumidores, devemos reciclar nossos equipamentos quando eles não nos servem mais. Embora os “gizmos” (aparelhos com componentes eletrônicos móveis) sejam relativamente recentes, é possível vendê-los na web – no eBay ou em sites que comercializam produtos usados. Eles lhe enviam uma embalagem pré-paga para que você possa enviar seus aparelhos ou gadgets velhos, pagam por eles, e depois os revendem ou reciclam. Por enquanto, é possível melhorar as coisas imediatamente, sem que ninguém tenha de se sacrificar muito, ao pressionarmos os fabricantes a divulgar seus próprios esforços ecológicos – e nos obrigarmos a descartar nossos equipamentos ultrapassados em pontos de coleta adequados. Praticar uma boa ação em prol do bem-estar do planeta não poderia ser mais fácil que isso. – David Pogue

HISTÓRIA DA CIÊNCIA

Um conto de tesouro matemático

Exposição rastreia a reconstituição de uma coleção há muito tempo desaparecida de escritos de Arquimedes

H

á muitas histórias sobre o matemático grego da Antiguidade Arquimedes de Siracusa. Uma diz que ele popularizou a palavra “eureca”, que usou espelhos para incendiar navios romanos, que um soldado romano o matou em 212 a.C. enquanto ele desenhava diagramas na areia. Não apenas as histórias devem ser falsas, dizem historiadores, mas também não captam o verdadeiro significado de suas conquistas, que passam pela matemática, ciências e engenharia, e inspiraram gênios do mesmo calibre como Leonardo da Vinci, Galileu e Isaac Newton. Alguns afirmam que ele essencialmente criou as ideias básicas de cálculo. Uma exposição aberta de outubro a dezembro de 2011 no Walters Art Museum, em Baltimore, na costa leste americana, mostrou o esforço de uma década para recuperar alguns de seus textos desaparecidos e evidenciar algumas de suas contribuições desconhecidas. “Achados e perdidos: os segredos de Arquimedes” foca um livro de pergaminho conhecido como Archimedes palimpsest. Em determinado ponto da história, todos os trabalhos de Arquimedes que sobreviveram à Alta Idade Média foram concentrados em apenas três tomos feitos por copistas do século 10o em Constantinopla. Um deles, chamado Codex C, desapareceu algum tempo depois que exércitos da Europa ocidental saquearam a capital bizantina em 1204. Então, em 1906, o filólogo dinamarquês Johan Ludvig Heiberg encontrou um livro de orações em um mosteiro e notou que era um palimpsesto – ou seja, o papiro havia sido reciclado e continha páginas de livros mais antigos que foram “limpas” e reutilizadas. Entre aqueles livros mais antigos, Heiberg percebeu que estava o Codex C. Equipado com lupas, ele cuidadosamente transcreveu o que po-

Palimpsesto de Arquimedes

dia ler do texto, incluindo partes de duas dissertações que ninguém havia visto nos tempos modernos. Um foi O método dos teoremas mecânicos, que descreve a lei da alavanca e uma técnica para calcular o centro de gravidade de um corpo – essencialmente o mesmo recurso usado hoje. Outro, chamado Stomachion, aparentemente sobre um jogo de tangrama. Logo o livro sumiu de novo para reaparecer em 1998, em um leilão em Nova York. Um colecionador anônimo que o comprou por US$ 2 milhões o emprestou ao Walters Museum. Quando o palimpsesto ressurgiu, afirma Will Noel, seu curador, “ele estava num estado lastimável”. Especialistas em imagem conseguiram recuperar muito do texto oculto usando ferramentas de alta tecnologia – incluindo raios X de um acelerador de partículas – e torná-lo disponível aos estudiosos. Reviel Netz, historiador de matemática da Stanford University, descobriu ao ler O método dos teoremas mecânicos que Arquimedes tratava o infinito como um número, o que constituía algo como um salto filosófico. Netz foi também o primeiro acadêmico a fazer um estudo profundo dos diagramas que ele assegura serem reproduções fiéis dos desenhos originais do autor e capazes de fornecer entendimentos fundamentais sobre seu pensamento. Esses materiais estiveram presentes na exposição, mas os estudos continuam. – Davide Castelvecchi SCIENTIFIC AMERICAN BRASIL AULA ABERTA

11


NOTAS NEUROCIÊNCIA

Por que dormir faz bem

Peixes transparentes ajudam neurocientistas a encerrar debate científico sobre se a sesta melhora o desempenho cerebral

P

arecem óbvios os benefícios do sono. E, ainda assim, os cientistas há muito travam um debate sobre como precisamente o sono melhora o desempenho cerebral no nível celular. Um grupo argumenta que o sono reduz as conexões insignificantes entre os neurônios, evitando uma sobrecarga do cérebro. Outro alega que o sono consolida a memória do dia anterior. Recentemente, uma equipe de cientistas tentou acabar com essa discussão ao estudar a forma larval de um recorrente peixe de estimação, conhecido no Brasil como paulistinha. Como os humanos, esses peixes são ativos durante o dia e dormem à noite, e na

forma larval são transparentes, o que permitiu aos pesquisadores observar o cérebro desses animais enquanto dormiam. Os pesquisadores, liderados por Lior Appelbaum e Philippe Mourrain, da Stanford University, marcaram os neurônios das larvas com um corante, de forma que as conexões neuronais ativas, ou sinapses, ficassem verdes, e as inativas, pretas. A diminuição da atividade sináptica demonstraria que o sono suprime as conexões de memória desnecessárias, ao passo que a consolidação da memória manifestaria um padrão diferente. Após acompanhar a flutuação dessas sinapses ao longo do dia, a equipe descobriu que o pau-

Sinapses no peixe

listinha de fato apresenta diminuição da atividade sináptica geral durante o sono. Os pesquisadores publicaram seus resultados no periódico Neuron, tornando-se os primeiros a demonstrar os efeitos do ciclo sono-vigília e do dia sobre as sinapses de um vertebrado vivo. “O sono é um processo ativo que reduz a atividade no cérebro”, elucida Mourrain. “E permite ao cérebro se recuperar das experiências anteriores.” Sem a redução sináptica ocorrida durante o sono, ele observa, o cérebro não teria a habilidade de absorver e armazenar novas informações de forma contínua. – Carrie Arnold

SAÚDE E MEDICINA

Um filtro de água assassino

U

ma em cada seis pessoas no planeta não tem acesso à água limpa, potável, o que torna as doenças diarreicas as principais causas de morte. Filtros d’água resolveriam o problema, mas costumam ser caros demais para distribuição em escala. Ao combinarem a nanotecnologia com materiais baratos, como algodão e saquinhos de chá, no entanto, pesquisadores desenvolveram filtros d’água portáteis, que podem ser manufaturados por menos de um centavo de dólar. Os filtros convencionais, em sua maioria, são equipados com pequenos poros que “interceptam” bactérias, mas tendem a entupir, o que exige uma dispendiosa manutenção. Yi Cui desco12 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

briu um meio para utilizar prata e eletricidade a fim de eliminar as bactérias. Cientista de materiais da Stanford University, Cui imergiu um algodão em uma mistura de nanotubos de carbono e nanofios de prata, que são condutores elétricos. A prata age como um eficiente bactericida, em parte porque íons de prata danificam material gené-

tico. No laboratório, o filtro de Cui eliminou mais de 98% das bactérias de E. coli na água. Como os poros no algodão são grandes, esse filtro é 80 mil vezes mais rápido que os demais. Uma invenção mais barata ainda é uma espécie de saquinho de chá, cheio de grânulos de carbono revestidos com um microbicida. Pesquisadores da Universidade de Stellenbosch, na África do Sul, descobriram um meio para encapsular as substâncias químicas em nanofibras a fim de aumentar sua área superficial e ajudá-las a absorver substâncias tóxicas e bactérias. O filtro cabe no gargalo de uma garrafa comum e custa cerca de meio centavo de dólar por unidade. – Melinda Wenner Moyer

GETTY IMAGES (copo); CORTESIA DE GORDON WANG E PHILIPPE MOURRAIN Stanford University (sinapses)

Novos materiais prometem melhor acesso à água limpa ao redor do mundo


VITAMINAS

Quais pílulas funcionam?

A recente descoberta de que os suplementos de vitamina D são desnecessários expõe uma divergência entre pesquisadores de nutrição

N

desses cientistas fixa os níveis de ingestão baseados apenas nos dados extraídos do ensaio clínico. O painel do Instituto, no entanto, descartou uma enorme quantidade de estudos observacionais, em que os pesquisadores comparam a saúde das populações que ingerem suplementos de vitamina D com aquelas que não têm esse comportamento. Em teoria, esses estudos epidemiológicos são inferiores às abordagens clínicas porque confiam em observações externas do mundo real, onde é impossível controlar as variáveis. Os pesquisadores compensam essa falta de controle usando amostras de tamanhos maiores – alguns estudos sobre vitamina D fazem o acompanhamento de 50 mil pessoas – e aplicando técnicas estatísticas. De acordo com esses estudos, níveis elevados de vitamina D são geralmente benéficos.

Após o impacto do relatório feito pelo instituto, médicos estão criticando os estudos clínicos. Em nutrição, argumentam, os verdadeiros grupos de placebo são muito difíceis de manter – como evitar que as pessoas de um grupo de controle tomem doses extras de vitamina D, se exponham ao sol ou ingiram alimentos, mascarando os benefícios da vitamina? Também é difícil destacar o efeito de uma única vitamina ou mineral dos demais, porque muitos funcionam em conjunto. – Melinda Wenner Moyer

KANG KIM Gallery Stock

as últimas décadas, os médicos prescreveram suplementos de vitamina D a seus pacientes por uma boa razão: a confirmação de uma correlação entre elevada ingestão de vitamina D – superior à que a maioria das pessoas retira de uma dieta típica, combinada com exposição ao sol – e menores taxas de doenças crônicas, como câncer e diabetes do tipo 1. Por isso, quando o Instituto de Medicina – responsável por aconselhar o governo americano nas políticas de saúde – concluiu que os suplementos de vitamina D são desnecessários para a maioria das pessoas, além de potencialmente prejudiciais, a confusão foi gerada. A questão expõe uma divergência entre especialistas sobre o que representa uma prova quando se trata de nutrição, fato capaz de afetar a recomendação em relação a muitos outros suplementos. De um lado estão os cientistas que insistem em afirmar que o único padrão aceitável é o ensaio clínico randômico, que compara os efeitos de uma intervenção médica, a exemplo da elevada ingestão de vitamina D, com resultados de placebo. Os cientistas que revisaram as descobertas sobre a vitamina D defendem com ênfase essa posição: os ensaios “tipicamente fornecem o nível mais alto de evidência científica para o desenvolvimento da ingestão dietética de referência”, argumentam. O relatório

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

13


NOTAS NEUROCIÊNCIA

A linguagem dos neurônios

Uma nova técnica de imagem por computador mostra como as células nervosas se comunicam – uma molécula por vez e pudéssemos observar moléculas individuais, a imagem abaixo é o que veríamos quando uma célula do cérebro se comunica com outra por meio de uma sinapse – o ponto de contato entre duas células nervosas (neurônios). O modo como o cérebro sente, pensa, aprende e expressa a emoção depende de como todas essas células se intercomunicam. Entender esse funcionamento vem ocupando diversos laboratórios interessados também em saber como as drogas psiquiátricas melhoram a vida dos pacientes. No entanto, os obstáculos para os neurocientistas vão da complexidade das sinapses e o seu reduzido tamanho à extraordinária velocidade com que ocorrem. Graças ao trabalho coordenado de mais de 1.400 tipos Imagem de sinapse gerada por computador

14 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

de moléculas, um neurônio se comunica com outro emitindo neurotransmissores químicos, que carregam a mensagem por um espaço estreito até a minúscula superfície receptora de seu vizinho. Um relato completo de como isso ocorre só pode ser obtido por meio de modelo computacional. Espera-se que, ao se processar uma simulação momento a momento, molécula a molécula, produzam-se novas revelações passíveis de testes experimentais futuros. Essa imagem gerada por computador, criada por Tom Bartol e seus colegas do Salk Institute for Biological Studies, é um começo. Trata-se da reconstrução tridimensional de um pequeno cubo de tecido nervoso do cérebro de um rato. Além de mostrar a estrutura, ela capta o disparo de um

neurônio para outro. As moléculas individuais do neurotransmissor químico (amarelo) explodem em uma sinapse formada no ponto de contato entre um axônio (cinza) e um dendrito (azul) no receptor. A estrutura verde-azulada é uma célula não neuronal que ajuda os neurônios em sua função normal. Graças a essa simulação, foi possível observar que um quinto do volume dessa região do cérebro corresponde ao espaço entre as células vizinhas, no qual os neurotransmissores podem se espalhar. Essa possibilidade de ampla difusão deles contradiz a imagem padrão da sinapse como um local de comunicação entre apenas dois neurônios e pode alterar a nossa compreensão de como a informação se transmite pelo cérebro. – Carl Schoonover

IMAGEM GERADA POR TOM BARTOL DO SALK INSTITUTE FOR BIOLOGICAL STUDIES EM COLABORAÇÃO COM JUSTIN KINNEY, DAN KELLER, CHANDRA BAJAJ, MARY KENNEDY, JOEL STILES, KRISTEN HARRIS E TERRY SEJNOWSKI.

S


MEU PERCURSO

Constantino Tsallis Com a palavra, o cientista brasileiro nominalmente mais citado no mundo depois de Carlos Chagas

MARIA APARECIDA DE OLIVEIRA PADUA

N

asci em Atenas, Grécia, país onde logo após a Segunda Guerra Mundial houve uma guerra civil que durou até 1949. Por causa desse conflito, meu pai resolveu trazer a família para a América do Sul, pois achava que viver na Europa estava muito difícil com tantas guerras. Fomos para a Argentina, onde cresci e recebi minha educação básica. Pretendia cursar medicina, um pouco por influência paterna, mas quando me preparava para o vestibular acabei optando pelo curso de engenharia química, ao qual me dediquei durante um pouco mais de dois anos. Nessa época percebi que a engenharia não abrangia os aspectos mais fundamentais de ciência e matemática, que para mim eram mais interessantes e, por isso, passei para o Instituto de Física de Bariloche (Instituto Balseiro), um curso muito disputado, que admitia apenas 15 estudantes de todo o país. Quando terminei fui para Paris, onde morei durante oito anos, e me dediquei no primeiro ano ao trabalho experimental com lasers, depois me interessei pela física estatística, um ramo essencialmente teórico. Faço até hoje uma ou outra incursão na parte experimental, mas é na teoria que tenho mais prazer. Da França emigrei para o Brasil em 1975, país que escolhi para viver e criar meus três filhos. Hoje, naturalizado brasileiro desde 1984, coordeno o Departamento de Física Teórica do Centro Brasileiro de Pesquisas Físicas (CBPF), onde meu grupo trabalha com física estatística. O CBPF é um dos mais de vinte institutos do Ministério da Ciência, Tecnologia e Inovação (MCTI) dedicados à pesquisa em diversas áreas do conhecimento, tanto teóricas como experimentais e computacionais. Também sou coordenador do Ins-

tituto Nacional de Ciência e Tecnologia de Sistemas Complexos, uma entidade sediada no CBPF que conta com 36 membros de 18 instituições espalhadas pelo Brasil. Sobra pouco tempo para outras atividades de que também gosto muito: tocar piano, jogar tênis (era até bom nesse esporte), dançar e colecionar selos. Ferramenta valiosa Nos últimos 30 a 40 anos, a física estatística e seu formalismo principal, que é a mecânica estatística, ganharam enorme importância. É matéria obrigatória em quase todas as pós-graduações de física no mundo, isso porque sua característica principal que é conectar o mundo microscópico com o macroscópico aparece em milhares de situações e também nas finanças. Fenômenos como terremotos, oscilações das bolsas, mudanças linguísticas, interações no cérebro humano reveladas em eletroencefalogramas e plasma solar são de natureza diferente, mas sua descrição e modelização se assemelham bastante e todos eles apresentam um comportamento comum para cujo estudo a mecânica estatística constitui um instrumento valioso. Por exemplo, o cérebro é constituído de neurônios, células relativamente simples, mas o conjunto deles interagindo compõe um sistema complexo. O mesmo ocorre com as estrelas: três ou quatro delas formam um sistema simples, cuja interação pode ser estudada com as leis de Newton e da gravitação, mas no caso de milhões de astros, resulta um sistema muito diferente que se comporta como um fluido. O mundo financeiro, por sua vez, é movimentado por pessoas. Aquele que compra ações tem um comportamento simples: com base em comentários, ele

seleciona algumas delas para comprar ou vender. Mas quando isso abrange milhares de pessoas, essas aplicações de capital fazem emergir um comportamento coletivo de natureza diferente, que pode funcionar bem ou provocar essas crises permanentes, que observamos no mundo global de hoje, como a dos Estados Unidos e mais recentemente na Grécia e na Europa. Perspectivas de trabalho O campo de atuação dos físicos é amplo. Eles podem se dedicar à física médica, à geofísica, à astrofísica, entre muitos outros. Infelizmente no Brasil, a oferta de trabalho fora da academia ainda é pequena. Mas há profissionais da área trabalhando com mercado de capitais em instituições financeiras no Brasil. E o que um físico precisa para entrar nesse mercado é ter bons conhecimentos de mecânica estatística. Poucos meses de estudo de assuntos específicos das finanças bastam para ele poder trabalhar nesse ramo. Por exemplo, é possível, sem jamais ter feito um curso formal de economia, publicar regularmente trabalhos originais em teoria de finanças, graças aos conhecimentos da mecânica estatística e de sistemas dinâmicos não lineares. Esse tipo de conhecimento permite diversas aplicações. E além disso os físicos, por tradição milenar que vem de Platão e Aristóteles, são treinados a olhar de forma abrangente para o mundo, a observar os aspectos laterais dos fenômenos, o que os capacita a correlacionar fenômenos diferentes. n Mais informações sobre o cientista e seu trabalho estão disponíveis no site da Academia Brasileira de Ciência: http://www.abc.org. br/~tsallis. Visite o site da CBPF: www.cbpf.br

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

15


FÍSICA No ESPoRTE SALTO EM DISTÂNCIA

Velocidade e força muscular Duas condições para atingir boas marcas explicadas pela mecânica POR OTAVIANO HELENE E FELIPE FÁBIO FRIGERI

A

física é uma ciência ambiciosa, que estuda desde o comportamento da mais sutil partícula subatômica até os pontos extremos do Universo, e nessa vasta área de abrangência incluem-se também os fenômenos corriqueiros do nosso dia a dia, como as práticas esportivas em geral. Uma delas é o salto em distância. Que explicações essa ciência pode oferecer a respeito de tal modalidade esportiva? Para responder a essa questão, vamos examinar o problema com as ferramentas da mecânica e, também, um truque comum, bastante usado para analisar e entender problemas complicados: procurar o que eles têm de fundamental, deixando os detalhes de lado.

MODELANDO O SALTO A física do salto em distância não é muito mais complexa que a física envolvida em um desses problemas típicos de lançamentos balísticos de pedras ou projéteis de canhão que encontramos nos livros didáticos. A distância que uma pedra vai percorrer depois de lançada e antes de cair no chão depende de sua velocidade na horizontal (quão rapidamente ela vai para a frente), de sua velocidade na vertical (que define quanto tempo ela permanecerá no ar) e da altura em que esse lançamento ocorre. Vamos ver como aplicar isso ao salto em distância. Um bom atleta que se dedica a essa modalidade esportiva consegue alcançar uma velocidade (horizontal) da ordem de 10 metros por segundo (36 16 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

km/h). Essa é a marca típica que os velocistas especializados nas corridas de 100 metros rasos atingem após cerca de 5 segundos de percurso, que é o tempo de corrida que um atleta dispõe antes de saltar. Cabe lembrar que muitos atletas recordistas nos 100 metros rasos têm igual destaque no salto em distância. É essa a velocidade horizontal com a qual ele ou ela podem contar no momento em que iniciam o salto. E a velocidade vertical? Imediatamente antes do salto, o atleta imprime ao seu corpo uma velocidade vertical, dando um forte empurrão contra o chão, de modo a lançar-se para cima. E como caracterizar esse empurrão? Para responder a essa pergunta, podemos analisar outras atividades esportivas, como o levantamento de peso ou a aceleração de um corredor especializado nos 100 metros rasos no instante em que o esforço é máximo. Essas análises indicam que um excelente atleta consegue produzir, em um empurrão dado com apenas uma de suas pernas, uma quantidade de energia mecânica da ordem de 550 joules. É essa energia que será usada para garantir a ele, no momento da decolagem, a velocidade vertical, fazendo com que seu corpo seja lançado para cima. Podemos estimar essa velocidade por meio do teorema do trabalho-energia. E vamos, para simplificar o problema, supor que toda essa energia seja convertida em energia cinética, desconsiderando o trabalho feito para elevar o centro de massa no momento do salto.

Se, imediatamente antes de pular, o atleta de massa m atinge a velocidade inicial vi de 10 metros por segundo, depois do salto sua velocidade final vf será dada, no Sistema Internacional de Unidades, pela equação: mvf2/2 = mvi2/2 + 550 J. Considerando um saltador de 80 quilogramas, sua velocidade final será vf 10,67m/s. Note que a velocidade adicional é apenas na vertical; a velocidade na horizontal permanece igual a 10 metros por segundo. Assim, precisamos de um diagrama que nos auxilie, como o do desenho abaixo. Com ele, é fácil calcular a velocidade vertical vv do atleta: vv= 3,7 m/s. 10,7 m/s 3,7 m/s

10,0 m/s ESQUEMA com as velocidades horizontal e vertical do atleta no instante da decolagem

O salto é, portanto, um lançamento oblíquo e seu alcance será determinado pelo tempo que o atleta permanece no ar e pela velocidade horizontal, valores que definirão a distância percorrida. Se observarmos as forças que atuam no atleta durante o salto, veremos que somente a força peso tem influência no deslocamento. Ela


Figura 1 TRAJETÓRIA feita pelo centro de massa do atleta

ERIKA ONODERA

a

d

faz com que o movimento do corpo massa do atleta até atingir a mesna vertical seja acelerado para bai- ma altura em que estava no início xo pela gravidade g, que podemos do salto, será igual ao seu deslocatomar com o valor aproximado de 10 mento na horizontal durante aqueles metros por segundo ao quadrado. Por 0,74 segundos: vh = d/t = 10 m/s ≈ isso, é possível descrever como seria d/0,74 resultando d ≈ 7,4 m. a função horária (o valor da altura em Essa distância está representada função do tempo) desse movimento pela curva tracejada na figura 1, acima. durante o salto. Nesse caso, precisaMas o que conta no salto em distânmos considerar o centro de massa do cia não é o deslocamento horizontal esportista, ponto cujo movimento na do centro de massa até voltar à altura vertical tem equação horária dada por: inicial, mas, sim, a distância entre o úlSy(t) = S0y+vvt+gt2/2 timo ponto que o atleta tocou no solo em que Sy é a coordenada da posição e o primeiro que atinge ao cair. Essas vertical no instante t, e S0y, no instante distâncias são representadas por a e inicial do salto. Substituindo na equa- b na figura. Se você já observou um ção os valores conhecidos, obtém-se: salto em altura, possivelmente conSy(t) = 3,7 m/s•t−5 m/s2•t². cordará em estimar a soma dessas Para saber o tempo necessário duas distâncias em cerca de 1 metro. para que o atleta atinja o solo nova- Portanto, concluímos que um excemente após a decolagem, devemos lente atleta – aquele que atinge os 10 substituir o valor da altura Sy(t) por metros por segundo após cinco sezero e encontrar os instantes que satis- gundos de corrida e que produz uma fazem essa condição: Evidentemente, energia mecânica de 550 joules em há duas soluções para essa equação, um único empurrão com uma perna – salta, aproximadamente, 8,4 metros. t = 0 s e t = 0,74 s. Outro resultado interessante diz resA primeira solução corresponde ao início do salto, quando o atleta peito ao ângulo de decolagem. Pelo ainda está no solo. A segunda é o esquema das velocidades é fácil caltempo que ele permanece no ar. culá-lo: é o ângulo cuja tangente vale Se pudermos desconsiderar as for- 3,7/10 = 0,37, ou seja, em torno de 20º. ças que atuam na direção horizontal, como a resistência do ar, que é ESTIMATIVAS VERSUS REALIDADE bem pequena, concluímos que o Uma prática comum e importante em movimento nessa direção acontece ciências como a física é comparar os com velocidade vh constante de 10 valores calculados por meio de modemetros por segundo. Assim, o alcan- los com o que de fato acontece. Vamos ce d indicado no desenho, que é a fazer isso. Nos últimos resultados dos distância percorrida pelo centro de jogos Pan-Americanos, em Guadalaja-

b

ra, o salto masculino mais longo atingiu a marca de 8,05 m; Maurren Maggi, a representante brasileira que recebeu a medalha de ouro, saltou 6,94 m. Os recordes mundiais são de 8,95 m e 7,52 m, respectivamente para homens e mulheres. Outra indicação de que o modelo é razoável está no ângulo de decolagem estimado, de 20º, bastante próximo ao que se observa na prática em atletas de alto nível. Se não conseguimos acertar precisamente os desempenhos, é porque não sabemos exatamente a velocidade dos atletas no momento do salto, o peso deles ou a energia mecânica que cada um produz no momento da decolagem. Com essas informações e outros detalhes, como as distâncias a e b indicadas na figura, poderíamos prever bem melhor as distâncias saltadas. Mas nosso objetivo na verdade era procurar os principais ingredientes físicos presentes em um salto em distância, que parecem ter sido revelados: a distância saltada depende da velocidade horizontal e do empurrão que o atleta dá no momento da decolagem. Se alguém quer melhorar seu desempenho, então que cuide de correr mais rapidamente e fortalecer os músculos de suas pernas para o empurrão final. ■ OS AUTORES Otaviano Helene é professor do Instituto de Física da USP e mantém o blog cienciasolimpicas@ blogspot.com. Felipe Fábio Frigeri é mestrando do mesmo instituto.

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

17


LIVROS MERGULHO PROFUNDO

Abordagem sobre a tabela periódica vai além dos elementos químicos

S

e você pensa que nunca seria capaz de ler um livro sobre química porque ele seria indecifrável, desagradável e desinteressante, faça uma experiência para mudar suas impressões. Talvez um livro qualquer tenha, de fato, essas características, mas A colher que desaparece, de Sam Kean, não se enquadra nesse caso. Explorar a tabela periódica, a arrumação atribuída ao químico russo Dmitri Mendeleiev (mais gente tomou parte nela), vai muito além de saber quantos elétrons ocupam certo orbital, qual o número de prótons no núcleo de um elemento ou a variação no número de seus nêutrons. Investigar a tabela periódica é descobrir o Universo em que vivemos, dar-nos conta de boa parte da história da humanidade e depararmos com relatos impressionantes de alegrias e frustrações no mundo da ciência. Em relação a este trabalho, talvez valha a pena advertir que o título não faz justiça ao seu conteúdo. A colher que desaparece sugere apenas mais uma obra com pretensão de certos truques fáceis e rápidos, quando o relato nos leva a um mergulho profundo e surpreendente em conflitos que vão das duas guerras mundiais à história da nucleossíntese, a explicação de como nosso Universo forjou os elementos químicos, passando pela extinção dos dinossauros, sem falar de encontros surpreendentes. Aqui deparamos com Mendeleiev, um bígamo anarquista absolutamente genial, e conhecemos a teimosia e generosidade de Linus Pauling, além de trapaças mais sujas que um pombal inteiro, desenvolvidas com astúcia e falta de escrúpulo pelo ditador português Antonio Salazar. Ele se envolveu em negociações internacionais de molibdênio em jogos duplos ou triplos, o que permitiu que a Alemanha obtivesse cargas preciosas desse mineral para construir a Big Bertha, canhão de mais de 40 toneladas que 18 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

fazia disparos a 120 km de distância já na Primeira Guerra Mundial. Uma contraparte de um sujeito ardiloso como Salazar, mas talvez ainda mais inescrupuloso, vamos conhecer nos bastidores da ciência, envolvido com a produção de gases mortíferos. Trata-se do químico alemão Fritz Haber (Prêmio Nobel de 1918), exemplo de até que ponto um homem está disposto a sacrificar tudo e todos em benefício de seu próprio ego, o que significa pensar a dimensão da loucura. Ao menos uma menção rápida deve ser feita a Sam Kean e sua obsessão por detalhes que lhe permitiu tecer a teia intrincada em que balança agradavelmente seu A colher que desaparece. Imagine, para efeitos comparativos, um geógrafo que explora a bacia hidrográfica de um grande rio. Ele começa pela foz e, em direção à nascente, vai explorando cada uma das bacias dos tributários, à minúcia dos pequenos cursos d’água. É mais ou menos o que Kean faz na sua investigação da tabela periódica. Levanta cada um dos detalhes que, observados isoladamente, não fazem sentido. Mas comparados, agregados e articulados, revelam uma história surpreendente. Tome como exemplo de obsessão o capítulo 4, que trata da nucleossíntese, o relato de como a matéria de nosso Universo se originou. Essa é uma abordagem tradicional de cosmologia, mas Kean faz uma apresentação que supera em muito grande parte de bons livros especializados, quando abordam a origem dos elementos químicos. Aqui, apenas tenha cuidado com um deslize de revisão que driblou a consultoria técnica. A palavra “meteoro” refere-se ao rastro luminoso produzido por um corpo que, vindo do espaço, penetra a atmosfera da Terra ou de outro planeta ou lua. Se sobreviver ao atrito com a atmosfera esse corpo atinge a superfície e é chamado de

A COLHER QUE DESAPARECE Sam Kean. Zahar, 376 págs., 2011, R$ 44,00

meteorito. No espaço, no entanto, é um meteoroide ou asteroide, dependendo do seu tamanho. Se tiver o porte de uma montanha, por exemplo, é um asteroide, mas se exibir o tamanho de uma bola de futebol não passa de um meteoroide. Assim, o que atingiu a Terra há 65 milhões de anos foi um asteroide e não um meteoro. Ah! Sim. Você já ouviu dizer que determinado cientista ganhou o Prêmio Nobel, o que faz de um desses agraciados uma figura imediatamente olimpiana – para tomar de empréstimo a expressão cunhada por Edgar Morin. Não é que se trate de homens quaisquer, evidentemente. Mas não se impressione além de certos limites, porque você descobrirá também, nesta história da química, que as coisas não são bem assim. A escolha dos laureados – e dos temas tratados – com alguma frequência complica a vida dos noruegueses encarregados de fazê-la, e então eles devem encontrar uma maneira de contornar as pedras do caminho. Já escrever é um desafio em que cientistas de modo geral nem sempre se saem bem, com as exceções de sempre, que incluem Freud, Einstein e, mais recentemente, o astrônomo e divulgador científico americano Carl Sagan. E este é outro mérito de Sam Kean, autor jovem, mas já premiado. Em A colher que desaparece, ele não só oferece uma quantidade enorme de informação, como a organiza e a expõe de forma sóbria e elegante. Ou seja, ele escreve bem. – Ulisses Capozzoli


OLHAR EXTERNO

Relato estrangeiro revela o que muitos desconhecem da Amazônia

Q

ue a Amazônia sempre encantou naturalistas é uma constatação que vem desde o século 18, em especial no período das chamadas “viagens filosóficas”, que entre outros incluíram o pesquisador baiano Alexandre Rodrigues Ferreira (1756-1815). Mas ainda hoje a região atrai interesses científicos que vão da linguística à entomologia, passando por hidrologia e botânica, entre outras áreas de interesse. Em Árvore de rios – A história da Amazônia, o explorador canadense John Hemming faz uma incursão que vai de fins do século 15 e início do 16 a acontecimentos mais recentes, passando por etnologia, organização política, exploração hidrológica e visitas a processos sociais como a Cabanagem. Mais especificamente, Árvore de rios – A história da Amazônia é uma obra sobre a Amazônia produzida para um público externo e apenas traduzida para o mercado editorial nacional, o que em si não é nem um pouco negativo. Mas tem, digamos, algo parecido a um “sota-

que”, um “acento” estrangeiro. E isso é o que dá à obra um caráter genérico. Hemming não é nenhum iniciante e tem experiências na Amazônia. Uma delas está relacionada a uma expedição de que ele participou, em 1961, quando seu grupo foi atacado por índios da etnia arara, e um de seus companheiros acabou flechado e morto. De qualquer maneira, o desconhecimento que o Sul/Sudeste tem em relação à região faz com que a obra ajude a suprir essa carência mesmo internamente. A propósito, aqui a Cabanagem (18351840) emerge como uma espécie de denúncia dessa alienação nacional. A Cabanagem – denominação originária do tipo de habitação usada pela população ribeirinha, formada majoritariamente por negros, escravos libertos e índios – foi uma revolta em que essas populações se insurgiram contra a elite política e tomaram o poder na então província do Grão-Pará, protestando contra o esvaziamento político-econômico da

ÁRVORE DE RIOS – A HISTÓRIA DA AMAZÔNIA John Hemming. Editora Senac, 450 págs., 2011, R$ 77,90

região com a transferência da capital para o Rio de Janeiro. A repressão brutal ao movimento causou a morte de cerca de 100 mil pessoas e o extermínio de etnias indígenas inteiras, caso dos mura e maué. Referência em povos e ambientes amazônicos, cultura inca e peruana, Hemming foi, durante duas décadas, diretor da Sociedade Geográfica Real, com sede em Londres, função que lhe permitiu uma visão geral da Amazônia enquanto ambiente que unifica países sul-americanos como Peru, Colômbia e Venezuela, além das antigas Guianas, e não apenas o Brasil. – Pedro Nunes

INTERNET O

s artigos sobre energia sustentável desta edição podem ser aproveitados para mobilizar a garotada com a apresentação de vídeos ou slides e a realização de experimentos relacionados ao tema. A página www.horizonexpress.com.br/ciencia/ experimentos/experimentos.html ensina a montar uma série de dispositivos destinados ao aproveitamento da energia solar. Na página https://sites.google.com/a/biomassa. eq.ufrn.br/engenharia-de-frutas/briquetes do Departamento de Engenharia Química da UFRN há instruções para a montagem de um fogão ecológico.

APOIO À AULA Física Os sites indicados abaixo podem auxiliar na discussão a respeito das forças que atuam no movimento dos veículos de duas rodas. 1. www.fsc.ufsc.br/cbef/port/03-3/artpdf/jlp.pdf 2. http://revistaescola.abril.com.br/ensino-medio/complexo-equilibrio-427039.shtml Durante muito tempo atribuiu-se o equilíbrio das bicicletas ao efeito giroscópico, o que não se provou verdadeiro. A influência desse efeito no equilíbrio é insignificante, porém ele nos ajuda a controlar a bicicleta quando dirigimos sem as mãos no guidão. O mais importante para o equilíbrio é o “trail”. Provas disso estão disponíveis em: www2.eng.cam.ac.uk/~hemh/gyrobike.htm e http://www.ufrgs.br/museudetopografia/Artigos/Giroscopio.pdf SCIENTIFIC AMERICAN BRASIL AULA ABERTA

19


COMO FUNCIONA ABSORÇÃO DE CHOQUE

Prédios antiterremoto O

20 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

➔ OS AMORTECEDORES DE FLUIDO VISCOSO funcionam como ■ para-choques de automóveis, neutralizando o movimento do solo e minimizando o deslocamento entre os pisos de modo a impedir que eles se rompam. A cabeça de um pistão com orifícios se desloca através de um óleo à base de silicone, dissipando a energia mecânica do abalo sísmico na forma de calor.

Eixo do pistão

Fluido compressível Cilindro à base de silicone

Cabeça do pistão com orifícios

Núcleo de chumbo Camadas de borracha Invólucro de borracha Placas de aço

KENT SNODGRASS Precision Graphics

s terremotos matam milhares de pessoas e causam prejuízos de bilhões de dólares todos os anos. Materiais como concreto reforçado e pilares especiais deram maior robustez aos grandes edifícios, mas mecanismos que realmente reduzam os abalos durante um terremoto ainda são relativamente novos. Os códigos de construção civil exigem que as grandes estruturas ofereçam “proteção à vida” – isto é, que elas não entrem em colapso, permitindo que as pessoas sejam evacuadas sem risco. Mas o verdadeiro desafio é econômico. “Com as técnicas convencionais, poderíamos projetar edifícios capazes de sobreviver ao maior terremoto sem danos, mas custariam tão caro que ninguém iria construí-los”, afirma André Filiatrault, diretor do Centro Multidisciplinar de Pesquisa em Engenharia de Terremotos, da Universidade do Estado de Nova York. Os proprietários de edifícios estão considerando cada vez mais esses custos para minimizar os danos às estruturas, aos sistemas mecânicos e ao interior dos prédios. “As técnicas mais populares hoje tentam fazer com que boa parte da energia de movimento do solo não seja absorvida pelas edificações”, diz James Malley, da Degenkolb Engineers, em São Francisco. Para que isso ocorra, é necessário inserir dispositivos fixos de alta resistência entre a estrutura do edifício e as fundações, como os isoladores, que funcionam como colchões de borracha, os amortecedores, formados por líquidos viscosos que agem como absorvedores de choques, ou dispositivos deslizantes que fazem o edifício oscilar suavemente em vez de ruir. Muitos desses dispositivos são adaptações de aparelhos militares utilizados no reforço de arsenais de mísseis, de conveses de navios e de submarinos contra ataques. Alguns pesquisadores estão investigando novas tecnologias, como acionadores que poderiam puxar feixes semelhantes a tendões para compensar o movimento do solo ou a utilização de fluidos especiais nas fundações. Esses líquidos se transformariam em gel e conseguiriam amortecer as ondas de choque. Enquanto essas tecnologias estão sendo desenvolvidas, instalações novas ou antigas adaptadas proliferam por toda parte. Mesmo na Califórnia, estado americano famoso por sua instabilidade geológica, a maioria dos edifícios ainda não está equipada corretamente. – Mark Fischetti

Placa de montagem (a placa superior não aparece na figura)

➔ OS ISOLADORES, colocados na base de pilares de pontes, em estradas ■ ou sob colunas de edifícios, diminuem as vibrações dos terremotos e consequentemente os danos. As camadas de borracha se deslocam lateralmente para absorver o movimento nesse sentido e recolocar a estrutura na sua posição original. As placas de aço fixadas às camadas de borracha criam uma rigidez que impede o movimento vertical. O núcleo de chumbo evita que a estrutura se mova com o vento.


VOCÊ SABIA?

u Tremor em laboratório: Em 1999, a Fundação Nacional de Ciências dos EUA (NSF) criou a Rede de Simulação de Terremotos para pesquisar qual a melhor forma de proteger estruturas e edifícios contra essas ameaças. A NSF vai gastar mais de US$ 100 milhões, durante 15 anos, em cerca de 20 centros de pesquisa. Já estão sendo construídas gigantescas mesas de abalos e tanques de ondas, e os centros poderão desenvolver experimentos a distância com redes de alta velocidade. u O edifício Taipei 101, em Taiwan, ainda o segundo mais alto

do mundo, cujo último andar fica a cerca de 440 metros do solo, foi projetado com um sistema antiventos e antiterremoto especial que permite resistir a ventos de 450 km por hora e terremotos de até 7 graus na escala Richter. O que garante essa resistência é uma esfera de ferro de 660 toneladas situada no 89o andar,

sustentada por cabos, que funciona como um contrapeso, compensando as oscilações do edifício, provocadas pela ação de eventos atmosféricos ou sísmicos. u Maus ventos: até os arranha-céus mais leves conseguem

resistir a ventos fortes. Mesmo assim, eles podem oscilar com frequência capaz de deixar seus ocupantes mareados. Dá para reduzir esse movimento instalando no alto dos prédios enormes tanques com água, que balançam para compensar o movimento (e podem ser utilizados em caso de incêndio). Por outro lado, um peso móvel (ver ilustração) é capaz de sustentar o telhado, permitindo que ele balance para a frente e para trás. Esta técnica também permite isolar a massa pesada durante um abalo sísmico, diminuindo o esforço sobre as colunas verticais.

Retentor

➔ ESTE ROLAMENTO permite que um edifício oscile ■ para a frente e para trás, como um pêndulo, enquanto o solo treme. Ele é feito com materiais de alta resistência, baixo atrito e autolubrificante, e sua forma semiesférica distribui o peso do edifício e as forças de tensão do terremoto. A forma do rolamento determina quanto e com que velocidade o edifício pode oscilar.

Rolamento

Gabinete de aço

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

21


FÍSICA

Com NEWTON e ARQUIMEDES na garupa Motocicleta é um veículo que tira vantagem das leis da física

POR GERALDO TITE SIMÕES

© ROBERTO WEIGAND

U

m motociclista passeia tranquilamente quando se vê obrigado a desviar de um buraco. Ao lado direito há um carro estacionado. Mesmo assim ele vira o guidão para o lado direito e consegue desviar para a... esquerda! O movimento é muito rápido, praticamente instantâneo e quase inconsciente. Se fosse filmado em câmara superlenta poderíamos ver um fenômeno interessante: o conCONTRAESTERÇO traesterço, manobra que nada mais é que a terceira É uma técnica utilizada pelos ciclistas e motoci- lei de Newton aplicada à pilotagem. A toda ação clistas que consiste em corresponde uma reação de igual intensidade e em virar levemente o guisentido contrário. dão para a direita quanGraças a essa lei da física, se o motociclista quido se quer ir para a esquerda e vice-versa. ser desviar a moto da forma mais rápida e precisa, é obrigado a virar o guidão para o lado contrário ao que pretende ir. Sim, sei que é difícil de acreditar e mais ainda de visualizar, mas é pura física aplicada. Aqui, tudo começa pela característica constitutiva da motocicleta (e qualquer outro veículo de duas rodas alinhadas). Os leigos costumam tripudiar ao alegar que motos “são feitas para cair porque estão apoia-


SCIENTIFIC AMERICAN BRASIL aula aberta

23


24 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

vimenta o guidão. Ou seja, é tudo pura caixa dotada de pinhão PINHÃO física. Quando o motociclista provoca e cremalheira (ou rosca É um tipo de engrenagem que uma ação para virar a roda dianteira, sem-fim) que reduz mui- gira sobre uma tem como reflexo direto o desalinha- to a força aplicada para barra dentada, a mento em relação à roda traseira e o virar as rodas. Imagine cremalheira. movimento natural é um esterço no se o motorista tivesse de pegar diretamente na roda do carro para sentido contrário. Por isso essa técnica se chama contra- mudar de direção. Pois na motocicleta é esterço. Nem perca tempo tentando ver exatamente o que acontece: não existe esse movimento, porque é muito sutil. caixa de direção. Em compensação, a Quem pilota bicicleta ou moto faz isso moto é mais leve e, além disso, tem apenas uma roda na frente. sem perceber. O guidão nada mais é que uma alavanca. Lembra-se do Arquimedes? ARQUIMEDES E A ALAVANCA Mesmo nas pesadas motos custom, ou (“Deem-me uma alavanca e um ponto cruisers, a física pode ajudar – ou com- de apoio e moverei o mundo!”). O que plicar – a pilotagem. Basta imaginar que Arquimedes disse, dois séculos antes de as motos são veículos muito diferentes Cristo, é o princípio que permite pilotar dos automóveis. Muita gente conside- uma motocicleta sem exigir uma força ra a motocicleta um carro de duas ro- de Hércules. Qualquer estudante sabe das, e esse é um grande equívoco que que, quanto maior a alavanca, menor provoca muita confusão. O sistema de a força necessária para deslocar uma direção da motocicleta, o guidão, está massa. Se a alavanca é o guidão, quanto ligado diretamente à suspensão diantei- menor ele for, maior a força necessária ra. É como se o piloto tivesse de virar a para fazer a moto mudar de trajetória. roda dianteira pegando diretamente na E aqui começa a pesar – literalmente – a suspensão, que, por consequência, está ação do piloto para colaborar ou prejudicar na pilotagem. presa à roda dianteira. Quando um motoboy deforma o guiNos carros, mesmo sem auxílio de direção hidráulica, a direção é ligada a uma dão para deixá-lo mais estreito e assim

IMAGEM CEDIDA PELO AUTOR

das apenas em dois pontos”. A verdade, no entanto, é que se trata de uma grande bobagem e revela profundo desconhecimento de física. Qualquer criança em torno de 6 anos sabe que a moto parada só fica em pé se estiver apoiada nos cavaletes central ou lateral. A motocicleta só existe como veículo quando está em movimento. Pouca gente se dá conta de que a palavra “moto” significa movimento em latim. Enquanto estiver parada, essa coisa de duas rodas e um motor não é um veículo. Pode ser um enfeite, uma poltrona, mas não um veículo. Para que se torne algo “guiável” é preciso que esteja em movimento. Durante muito tempo, pensou-se que as rodas alinhadas produziriam as forças necessárias para gerar e manter o equilíbrio, graças ao efeiEFEITO to giroscópico, uma GIROSCÓPICO Um corpo em “força” produzida por movimento de qualquer corpo em rotação em torno de um eixo está rotação. Hoje acredisujeito a uma ta-se que o equilíbrio “força” (a rigor, o é garantido por formomento angular) paralela ao ças inerciais (assunto eixo, que tende a explicado no roteiro manter sua dire- de aula, pág. 57), que ção fixa. É o efeiaparecem quando moto giroscópico.


facilitar a passagem entre os carros, sem saber ele está “endurecendo” a direção de sua motocicleta, porque diminuiu a alavanca. O mesmo ocorre quando o dono da motocicleta troca o guidão sem critério, por razões puramente estéticas, e percebe que ela parece mais “pesada” sem entender o motivo dessa mudança. O que não ficou muito claro, na frase de Arquimedes, é que nem sempre a alavanca deve ser grande para reduzir a força aplicada. Ela pode ser pequena, desde que seja pesada. Se concentrarmos mais peso na extremidade da alavanca, a força necessária para deslocar a massa também será menor. Na motocicleta esportiva não há um guidão, mas dois pequenos semiguidões que ficam presos diretamente aos amortecedores dianteiros. Isso mesmo, o piloto movimenta as bengalas da suspensão dianteira. Isso exigiria muita força nos braços. Para reduzir um pouco dessa força, as fábricas instalam pequenos pesos nas extremidades dos semiguidões. Então, um motociclista desavisado retira esses pesos, ou troca os pesos por peças leves de alumínio coloridas, desprezando o princípio da alavanca. Pobre Arquimedes... O CORPO MANDA É fácil perceber a influência do fator humano na pilotagem da motocicleta. Imagine um carro de uma tonelada conduzido por um motorista de 70 kg. A massa do motorista é praticamente desprezível em relação ao veículo. O motorista pode pular no banco, bem no meio da curva, que o carro não vai alterar seu percurso. Agora, pense no mesmo motorista com seus 70 kg pilotando uma moto de 160 kg. A massa corporal representa uma boa parte, quase um terço, do total da massa moto+piloto. Em função dessa imensa influência do condutor sobre a motocicleta, pilotar esses veículos exige a participação de todo o corpo, e qualquer mudança de 10 cm na posição sobre o banco pode alterar o equilíbrio do conjunto moto/piloto. Aí está uma das dificuldades de pilotar motos esportivas, feitas para desenvolver altíssima velocidade: que o piloto tenha completa consciên-

Fator humano na pilotagem Em um carro de 1 tonelada conduzido por um motorista de 70 kg, a massa do motorista é praticamente desprezível em relação ao veículo. O motorista pode pular no banco, bem no meio da curva, que o carro não vai alterar seu percurso.

obrigatoriamente de reduzir a velocidade sob risco de ser derrotado por forças indesejáveis da física e seguir em linha reta. E o que mais ajuda a vencer essas forças, que querem jogar a moto para fora da curva, é a habilidade de tirar partido do próprio corpo.

PONTO DE EQUILÍBRIO Quem assiste a uma corrida de motocicletas fica perplexo como os pilotos são Agora, pense no mesmo motorista capazes de inclinar para o lado interno com seus 70 kg pilotando uma moto da curva a ponto de raspar o joelho de 160 kg. A massa do seu corpo representa uma boa parte, quase um no asfalto. Essa manobra, chamada de terço, do total da massa moto+piloto. pêndulo, tem a função de vencer a força que pretende jogar qualquer objeto para fora na curva (força centrífuga). Todo corpo em movimento retilíneo cia corporal, sob risco de prejudicar a uniforme tem a tendência de se manter na trajetória até que uma ação externa estabilidade do conjunto. Uma das grandes diferenças da aplica- intervenha. Entra em cena mais uma lei ção da física entre carros e motos está no de Newton, a inércia. Para vencer a inércia (e mais ainda fato de que o carro está permanentemente apoiado sobre quatro pontos enquanto a o efeito giroscópico das rodas), o pilomotocicleta se mantém apoiada em ape- to precisa atuar. Durante a curva, uma nas dois pontos e é um veículo que se des- nova força age sobre a moto em direção loca demais em relação ao solo. Quando oposta à da curva. É a centrifugação, um carro faz uma curva, a inclinação da que faz os objetos assumirem a condição plataforma em relação ao solo é pequena de seguir reto, em vez de fazer a curva. e poucas alterações são processadas na É nessa hora que o piloto deve jogar a geometria de suspensão, rodas e direção. massa do conjunto moto/piloto no senJá a motocicleta se inclina significativa- tido contrário da força centrífuga e levar mente em relação ao horizonte. Com isso, esse esforço ao extremo de deixar o bana geometria e ângulos de direção e rodas co da moto e apoiar-se quase apenas pela perna, do lado interno da curva. se alteram bastante. Como o piloto de motocicleta tem Além de alterar, por exemplo, o ângulo de cáster e a medida de trail, a possibilidade de tirar partido de sua CÁSTER É o ângulo quando a moto se massa para reverter a tendênTRAIL entre a verti- inclina na curva, O eixo de rotação cia de ser atirado para fora da cal e o eixo da coluna de curva, ele aproveita a situação e de rotação ela também altera direção encontra da coluna significativamente também faz com que a massa do o solo em um da direcão. conjunto se aproxime ao máxio centro de mas- ponto à frente do mo do solo. Quanto mais prósa do conjunto ponto em que a roda toca o solo. moto/piloto. Não se pode falar O trail é a distân- ximo do solo estiver o centro de massa, maior será a estabilidade em centro de massa da moto, cia entre esses do conjunto. porque ela não se desloca so- dois pontos. Ah, mas se fosse apenas isso! zinha, mas exige um piloto. Se esse piloto for alto ou baixo, gordo ou O desafio é que existe ainda outra força magro irá influenciar diretamente o cen- atuando sobre o conjunto. Uma força que está presente o tempo todo e não há tro de massa do conjunto. Em função dessa relação direta entre como anulá-la: a gravidade. À medida moto e piloto, se não forem respeitados que a motocicleta sai do ponto de equicertos limites não há física que facilite líbrio, na vertical, e começa a se aproa pilotagem. Se o motociclista não con- ximar do solo, é nítido o deslocamento seguir inclinar a moto na curva, terá sobre o eixo longitudinal, e ao ficar, por SCIENTIFIC AMERICAN BRASIL AULA ABERTA

25


exemplo, a 50º em relação ao solo, a gravidade vai atuar com a intenção de trazer tudo para o chão. O papel do piloto, nesse caso, é equilibrar todas essas forças que atuam sobre o conjunto: a gravidade que quer atirá-lo ao solo, a força centrífuga disposta a ejetá-lo para fora da curva e a inércia, desejosa de manter todo o corpo em movimento sempre em linha reta. O que serve de consolo é saber que a resultante dessas forças recai exatamente sobre os pneus da moto. Assim, basta confiar nos pneus que boa parte dos problemas estará resolvida.

Erro comum Se uma moto a 100 km/h precisa de 35 metros para frear, qual a distância necessária para frear a 200 km/h? E a maioria responde: 70 metros, que é uma equação simples, uma mera regra de três. Se 100 = 35, então 200 = 70. Errado, porque frenagem é aceleração negativa e a unidade de grandeza para medir aceleração é expressa em metros por segundo ao quadrado (m/s2). Ou seja, é um dado exponencial e não um número absoluto. Na verdade, a distância necessária para frear uma motocicleta a 200 km/h chega a quase 140 metros.

FREAR OU ACELERAR? Um dos erros mais comuns na pilotagem de motocicletas ocorre nas frenagens. Tudo porque, quando se fala em aceleração, as pessoas só se lembram da aceleração positiva e esquecem que No momento em que começa a acea frenagem nada mais é que uma acele- leração negativa, ocorre o natural desração negativa! locamento da massa do piloto – e evenDurante meu curso de pilotagem tualmente, garupa – para a frente (na SpeedMaster faço uma pergunta no es- verdade, é o veículo que diminui a velotilo “pegadinha” dos programas popu- cidade e tudo que está nele continua em lares: se uma moto a 100 km/h precisa frente). Um motociclista destreinado se de 35 metros para frear, qual a distância apoia nos braços para evitar ser arremesnecessária para frear a 200 km/h? E a sado por cima do guidão. Mas, com isso, maioria responde: 70 metros, que é uma ele apenas desloca o guidão para baixo. equação simples, uma mera regra de três. Como o guidão está ligado na suspensão Se 100 = 35, então 200 = 70. Ho-ho! dianteira, a frente da moto “afunda”, Não, porque frenagem é aceleração ne- enquanto a traseira tem a tendência de gativa e a unidade de grandeza para me- elevar-se do solo. Nesse momento, a área dir aceleração é expressa em metros por de contato do pneu traseiro com o solo segundo ao quadrado (m/s2). Ou seja, é fica mais reduzida e um leve toque no um dado exponencial e não um número freio traseiro provoca a derrapagem. Por conta desse fenômeno, muitos absoluto. Na verdade, a distância necessária para frear uma motocicleta a 200 instrutores desavisados, especialmente os de motoescolas, ensinam seus alukm/h chega a quase 140 metros. Quando um veículo está em veloci- nos a nunca acionar o freio traseiro, dade constante (a=0) pode-se dizer que quando, na verdade, deveriam fazer há equilíbrio de massa. No momento da justamente o inverso: ensinar a utilizar frenagem, tem-se a sensação que tudo devidamente o freio traseiro. É, mais dentro do veículo quer ser atirado para uma vez, praticamente uma questão elea frente. Cessa o equilíbrio e ocorre o mentar de física aplicada à ciclística da deslocamento de massa por ação da motocicleta. Na verdade, o pneu traseiinércia. Nos carros, o freio é comanda- ro trava por excesso do freio dianteiro. Para reduzir esse efeito do deslocado pelo pedal que atua nas quatro rodas simultaneamente. Já nas motocicletas, mento da massa para a frente, a primeira os freios são acionados por comandos atitude de um motociclista habilidoso é separados: a alavanca da mão direita começar a frenagem pelo freio traseiro e ativa o freio dianteiro e o pedal do pé não o dianteiro. Ao acionar o freio traseiro, a suspensão traseira afunda e é ela que direito aciona o freio traseiro. 26 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

força o pneu traseiro contra o solo. Então, quando o motociclista acionar o dianteiro, logo em seguida, a tendência de a roda traseira levantar será muito menor. Como se não bastasse tudo isso, pouca gente sabe que, no momento da frenagem, o piloto não pode se apoiar nos braços, mas nas pernas. Para isso basta apertar o tanque da moto com os joelhos para que a transferência de massa se divida entre braços e pernas, diminuindo muito a pressão e afundamento da suspensão dianteira. Nesse caso, vale a pena considerar que uma simples análise na anatomia humana revela que temos muito mais musculatura nas pernas que nos braços. Portanto, nada mais natural que deixar as pernas fazerem o trabalho pesado na pilotagem de uma motocicleta. Outro conceito de física aplicado à motocicleta – e a todos os veículos com rodas e pneus – é o da pressão e área. Pneus de motocicletas têm um desenho totalmente diferente dos pneus de carros. Essa observação é relevante para entender o comportamento desses dois veículos sob chuva. É comum observar acidentes com automóveis que aquaplanaram. A aquaplanagem ocorre quando os pneus não conseguem drenar uma quantidade específica de água e “sobem” na lâmina de água que se forma sobre o asfalto e, com isso, perdem completamente o contato com o asfalto, como se houvesse um colchão de água sob o veículo. A observação do desenho dos pneus dos carros revela que a área de contato com o piso é muito grande e isso porque praticamente toda a banda de rodagem toca o solo. Já os pneus de motocicletas têm um formato anguloso, como se fosse uma lâmina, e a área de contato com o solo é comparativamente pequena, em deslocamento em linha reta. Se você invocar a regra que fala da proporcionalidade inversa de área e pressão se dará conta de que quanto menor a área, maior será a pressão exercida sobre a superfície de água. Mesmo com o peso muito maior do automóvel, a pressão exercida pela motocicleta sobre a superfície da água será maior, principalmente porque, além de maiores e mais largos, os pneus dos carros são quatro,


© DIGITALSPORT-PHOTOAGENCY/ Shutterstock

Os pneus são calibrados com ar, que porque, além de “amolecer” os pneus, enquanto nas motocicletas são apenas dois. Mas aqui também entra em cena o contém água em sua composição. Daí os sulcos (o desenho da banda do pneu) projeto dos pneus. Nos carros, os qua- a medição de umidade relativa do ar. ficam com sua função de escoamento da tro pneus têm a mesma medida de lar- Quando o veículo se desloca, os pneus água reduzida. Motociclista previdente e bem inforgura x altura. Já na motocicleta, o pneu atritam contra o asfalto e esse atrito dianteiro é muito mais fino que o trasei- gera calor. Como os pneus têm uma vál- mado sobre a melhor maneira de pilotar ro, o que faz com que o dianteiro atue vula que impede a saída do ar, é natural sua motocicleta deve saber que, se o fabricomo uma lâmina que corta a superfície que a pressão aumente, respeitando a cante do veículo recomenda determinada de água, abrindo caminho para o pneu velha Lei de Charles (que relaciona pres- calibragem do pneu, é porque já levou em são e temperatura conta a Lei de Charles. Exatamente por traseiro tracionar contra o solo. de um gás ideal). isso é que há a recomendação de calibrar No curso de pilotagem, quando al- LEI DE CHARLES: Se o volume de uma com pneus frios. É por causa da relação guém questiona essa teoria, alegando determinada massa Ou seja, quando que a moto é muito mais leve que o car- fixa de gás for manti- o pneu é aque- temperatura e pressão que os pneus dos do constante, então cido, o volume veículos de competição não são preenro, lembro do velho exemplo da balsa e sua pressão será chidos com ar, mas com um gás único, o do prego. Uma balsa que faz a travessia diretamente propor- do ar mantém-se Santos-Guarujá, com sua capacidade cional a sua tempera- aproximadamen- nitrogênio. Como o nitrogênio é isento de te constante e sua água, mesmo quando aquecido o aumenmáxima de carga, pesa algumas tonela- tura absoluta. pressão aumenta. to da pressão é insignificante. Além disso, das, mesmo assim flutua sobre a água. Quando o motociclista calibra o o nitrogênio é mais leve que o ar. Já um prego, de poucos gramas, afunn da solenemente quando atirado mesmo pneu frio pela manhã, observa que está com 26 libras/pol2, por exemplo. Depois O AUTOR num copo d’água. de viajar sobre o asfalto quente, decide Geraldo Tite Simões, jornalista, trabalhou em QUÍMICA APLICADA conferir a calibragem e se assusta ao ob- publicações brasileiras especializadas em motoFalamos muito de física, mas não só ela servar 32 libras/pol2. Então, desobede- ciclismo, como a revista Duas Rodas. Atualmente professor de pilotagem do curso SpeedMaster atua sobre uma motocicleta. A química cendo a norma do manual do proprietá- é(www.speedmaster.com.br). também tem um papel. Aqui, é preciso rio, decide “corrigir” a calibragem, dreconsiderar que um dos erros mais co- nando o ar até voltar às 26 libras. Santa PARA CONHECER MAIS muns entre motoristas e motociclistas se ingenuidade. Sem saber, o motociclista Um dos sites mais completos sobre motociclisdá na calibragem dos pneus. deixou sua motocicleta muito perigosa, mo é produzido na Itália: www.moto.it SCIENTIFIC AMERICAN BRASIL AULA ABERTA

27


BIOLOGIA

A fascinante evolução do olho Cientistas já têm uma visão clara de como surgiu esse órgão tão complexo POR TREVOR D. LAMB

O

olho humano é um órgão ex- de evidências de formas intermediárias tremamente complexo; atua naquele momento, Darwin acreditava como uma câmera, coletando, que o olho evoluíra dessa maneira. Não foi fácil encontrar uma evifocando luz e convertendo a luz em um sinal elétrico traduzido em imagens dência direta para essa teoria. Embora pelo cérebro. Mas, em vez de um filme pesquisadores que estudam a evolução fotográfico, o que existe aqui é uma re- do esqueleto possam documentar fatina altamente especializada que detecta cilmente a metamorfose em registros e processa os sinais usando dezenas de fósseis, estruturas de tecidos moles ratipos de neurônios. O olho humano é ramente fossilizam. E mesmo quando tão complexo que sua origem provoca isso ocorre, os fósseis não preservam discussão entre criacionistas e defenso- detalhes suficientes para determinar res do desenho inteligente, que o têm como as estruturas evoluíram. Ainda como exemplo básico do que chamam assim, recentemente biólogos fizeram de complexidade irredutível: um siste- avanços significativos no estudo da orima que não funciona na ausência de gem do olho, observando a formação quaisquer de seus componentes e, por- em embriões em desenvolvimento e tanto, não poderia ter evoluído natu- comparando a estrutura e os genes de ralmente de uma forma mais primitiva. várias espécies para determinar quanMesmo Charles Darwin admitiu em A do surgem os caracteres essenciais. Os origem das espécies, de SELEÇÃO NATURAL resultados indicam que o tipo de 1859 – que detalha a Processo da evolução olho comum entre os vertebrados teoria da evolução pela biológica em que se formou há menos de 100 miheredilhões de anos, evoluindo de um seleção natural –, que características tárias, quando favorápode parecer absurdo veis aos organismos, se simples sensor de luz para ritmos pensar que a estrutura tornam mais comuns circadianos e sazonais, há cerca de futuras gerações, 600 milhões de anos, até chegar ocular se desenvolveu em enquanto as desfavorápor seleção natural. No veis se tornam menos ao órgão sofisticado de hoje, em termos ópticos e neurológicos, há entanto, apesar da falta frequentes.

28 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

500 milhões de anos. Mais de 150 anos após Darwin ter publicado sua teoria revolucionária, essas descobertas sepultam a tese da complexidade irredutível e apoiam a teoria da evolução. Explicam ainda por que o olho, longe de ser uma peça de maquinaria criada à perfeição, exibe falhas evidentes – “cicatrizes” da evolução. A seleção natural não leva à perfeição; ela lida com o material disponível, às vezes com efeitos estranhos. Para entender a origem do olho humano é preciso conhecer eventos ocorridos há muito tempo. Nós, seres humanos, temos uma linha ininterrupta de ancestrais que remonta a quase 4 bilhões de anos até o início da vida na Terra. Cerca de 1 bilhão de anos atrás, animais multicelulares simples se separaram em dois grupos: um com estrutura de simetria radial (parte superior e inferior, mas não anterior e posterior), e outro de simetria bilateral, com os lados direito e esquerdo espelhando imagens do outro lado, terminando em uma cabeça. Após cerca de 600 milhões de anos, os bilaterais se dividiram em dois grupos importantes: um deu origem à grande maioria dos animais sem colu-


© FRAZER HUDSON/IKON IMAGES/GETTY IMAGES

na vertebral, os invertebrados; e outro, todos os artrópodes (insetos, crustáceos cujos descendentes incluem nossa pró- e aracnídeos). Nesse tipo de olho, uma pria linhagem de vertebrados. Logo série de unidades idênticas de geração após essas duas linhagens se separarem, de imagens – cada uma constitui uma lente ou um refletor – irradia ocorreu uma incrível diversiluz para alguns elementos dade de estruturas animais: a EXPLOSÃO CAMBRIANA explosão cambriana que dei- Período entre 540 sensíveis a ela, denominados xou sua famosa marca nos milhões e 490 milhões fotorreceptores. Os olhos registros fósseis de 540 a 490 de anos atrás em que compostos são muito eficazes a diversidade biológimilhões de anos atrás. Essa ca aumentou muito para animais de pequeno porexplosão evolutiva lançou a rapidamente, origi- te, pois oferecem um amplo base para a origem de nossos nando importantes ângulo de visão e resolução filos de multicelulares. espacial moderada em volutão complexos olhos. me pequeno. No Cambriano, essa acuidade visual pode ter dado aos COMPOSTO VERSUS CÂMERA O registro fóssil revela que durante a trilobitas e a outros artrópodes primitiexplosão cambriana surgiram basica- vos uma vantagem de sobrevivência somente dois tipos diferentes de olhos. O bre seus contemporâneos. No entanto, primeiro parece ter sido composto da olhos compostos são impraticáveis em versão observada atualmente em quase animais maiores, pois o olho teria de

ser enorme para proporcionar visão em alta resolução. Assim, com o aumento do tamanho do corpo, também aumentaram as pressões seletivas favorecendo a evolução do olho tipo câmera. Nos olhos tipo câmera, todos os fotorreceptores compartilham uma única lente que foca a luz e estão dispostos como uma lâmina (a retina) que reveste a superfície interna da parede ocular. Moluscos têm olhos tipo câmera que lembram os nossos, mas seus fotorreceptores são idênticos aos encontrados em insetos. Os vertebrados apresentam um tipo diferente de fotorreceptores, que nos mandibulados (inclusive nós) ocorrem em duas modalidades: cones para a visão diurna e bastonetes para a visão noturna. Há muitos anos, Edward N. Pugh, Jr., na época na University of PennsylSCIENTIFIC AMERICAN BRASIL AULA ABERTA

29


vania, e Shaun P. Collin, então na University of Queensland, Austrália, e eu formamos uma equipe para tentar descobrir como os diversos tipos de fotorreceptores poderiam ter evoluído. O que constatamos foi além da resposta a essa questão, fornecendo um cenário convincente para a origem do olho dos vertebrados. Como outros biólogos antes de nós, Pugh, Collin e eu observamos que muitas características marcantes do olho dos vertebrados também ocorrem em todos os representantes atuais de um ramo principal da árvore dos vertebrados: a dos vertebrados mandibulados. Esse padrão sugere que os vertebrados com mandíbulas herdaram os caracteres de um ancestral comum e que nosso olho já evoluíra por volta de 420 milhões de anos quando os primeiros vertebrados mandibulados (que provavelmente se assemelhavam aos modernos peixes cartilaginosos, como os tubarões) patrulhavam os mares. Concluímos então que nosso olho tipo câmera e seus fotorreceptores devem ter raízes ainda mais profundas e voltamos a atenção para os vertebrados sem mandíbulas, com quem compartilhamos um ancestral comum há cerca de 500 milhões de anos. Queríamos examinar a anatomia desse animal em detalhe e assim decidimos observar um dos poucos animais modernos desse grupo: a lampreia, peixe semelhante à enguia, com boca em forma de funil estruturada para sugar em vez de morder. Acontece que esse peixe também tem um olho tipo câmera completo, com cristalino, íris e músculos oculares. A retina da lampreia chega a ter uma estrutura em três camadas como a nossa e suas células fotorreceptoras se assemelham bastante aos nossos cones, embora não pareçam ter desenvolvido bastonetes mais sensíveis. Além disso, os genes que regulam muitos aspectos da detecção da luz, do processamento neural e do desenvolvimento do olho são os mesmos que comandam esses processos em vertebrados com mandíbulas. Essas semelhanças surpreendentes com o olho de vertebrados mandibula30 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

dos são numerosas demais para terem surgido de forma independente. Um olho essencialmente idêntico ao nosso deve ter existido no ancestral comum dos vertebrados com ou sem mandíbulas há 500 milhões de anos. Nesse ponto, meus colegas e eu não conseguimos deixar de questionar se poderíamos rastrear a origem do olho e de seus fotorreceptores ainda mais longe. Infelizmente, na próxima faixa a ser estudada pela lógica, não há representantes vivos das linhagens que se separaram da nossa nos últimos 50 milhões de anos, mas encontramos indícios no olho de um animal enigmático conhecido popularmente como peixe-bruxa. Como a lampreia, seu parente próximo, ele tem a forma de uma enguia, sem mandíbulas. Costuma viver no leito oceânico, onde se alimenta de crustáceos e de carcaças de outros animais marinhos. Quando ameaçado, libera um muco extremamente viscoso. Embora esse peixe seja um vertebrado, o olho é bem diferente do modelo comum: não apresenta córnea, íris, cristalino nem todos os músculos de apoio. A retina tem apenas duas camadas de células em vez de três. Além disso, os olhos ficam encaixados profundamente sob uma área de pele translúcida. Observações no comportamento do peixe-bruxa sugerem que seja praticamente cego, localizando o alimento pelo olfato aguçado. Esses animais compartilham um ancestral com as lampreias, que talvez tenham tido um olho tipo câmera. Assim, o olho do peixe-bruxa deve ter se degenerado dessa forma mais avançada; é isso que a existência desse estado mais precário revela. Tomando o exemplo dos peixes cegos em cavernas, sabemos que os olhos podem sofrer degeneração significativa ou até ser perdidos completamente em menos de dez mil anos. Mas o olho desse peixe manteve-se igual por centenas de milhões de anos. A persistência sugere que, embora o animal não use o olho para enxergar nas profundezas do oceano escuro, o órgão é essencial para a sobrevivência. A descoberta gera outras implicações. O olho do peixe-

-bruxa pode ter permanecido nesse estado rudimentar devido a uma falha no desenvolvimento; assim, sua estrutura atual representaria a arquitetura de um estágio evolutivo anterior. Ao observar melhor a retina do animal podem surgir suposições sobre o papel do olho. Na retina normal, de três camadas dos vertebrados, as células da camada média, conhecidas como bipolares, processam informações dos fotorreceptores e transmitem os resultados para os neurônios de saída, cujos sinais viajam até o cérebro para interpretação. Mas a retina de duas camadas do peixe-bruxa carece de células bipolares intermediárias, ou seja, os fotor- GLÂNDULA PINEAL receptores conectam- Glândula secretora -se diretamente com de melatonina, hormônio responsável os neurônios de saída. por informar aos Nesse sentido, o siste- órgãos e tecidos se ma nervoso da retina é dia ou noite. Nos mamíferos a capacido peixe-bruxa asse- dade de detectar a melha-se ao da glân- luminosidade foi dula pineal − pequeno transferida para a retina (que envia os corpo secretor de hor- dados à pineal). mônios do cérebro de vertebrados. A glândula pineal modula RITMO o ritmo circadiano e, CIRCADIANO nos vertebrados não Evento biológico que se repete regularmamíferos, contém mente, em períodos células fotorrecepto- de 24 horas. Podem ras que se conectam ter determinação endógena (independiretamente com os dentes das condineurônios de saída, ções ambientais) ou sem células interme- exógena, quando ocorrem como resdiárias; em mamífe- posta às mudanças ros, essas células per- no ambiente. deram a capacidade de detectar luz. Em 2007, parcialmente fundamentados por esse paralelo com a glândula pineal, meus colaboradores e eu propusemos que o olho do peixe-bruxa não está envolvido na visão, mas fornece informações à parte do cérebro do animal que regula o essencial ritmo circadiano, além de atividades sazonais como alimentação e reprodução. Assim, talvez, o olho ancestral dos protovertebrados que viveram entre 550 milhões ou 500 milhões de anos primeiro serviu como um órgão não


Ecos da Evolução

A estrutura do olho e o desenvolvimento dos embriões do peixe-bruxa e da lampreia, vertebrados primitivos semelhantes às enguias, sugerem como o nosso olho tipo câmera evoluiu e como ele funcionou nos estágios iniciais. O peixe-bruxa tem um sistema ocular degenerado que não traduz imagens mas provavelmente serve para detectar a luz, modulando os ritmos circadianos 1 . No início do desenvolvimento, o olho da lampreia se assemelha ao olho de estrutura simples do peixe-bruxa, antes de se metamorfosear em um complexo olho tipo câmera 2 . O olho humano também lembra o do peixe-bruxa durante o desenvolvimento, passando por um estágio em que a retina tem apenas duas camadas antes de surgir uma terceira camada de células 3 . Sabe-se que aspectos do desenvolvimento embrionário de um indivíduo refletem eventos ocorridos durante a evolução de sua linhagem.

Vesícula óptica

Artrópodes

4 semanas

Anelídeos, moluscos

Hemicordados, equinodermos

Bilaterais

Pele translúcida Cefalocordados

Células ganglionares 1

Tunicados

Células progenitoras da retina

Nervo óptico

Retina

Cristalino em desenvolvimento Fotorreceptores

5 semanas

Células maduras da retina

Retina com duas camadas

Olho larval da lampreia

Olho adulto do peixe-bruxa

Mixiniformes Células ganglionares Petromizoniformes

Vertebrados

Cristalino

Últimos peixes fósseis sem mandíbulas

2

Células bipolares Córnea Íris

Fotorreceptores Olho adulto da lampreia

4 Gnatostomatas (vertebrados com mandíbulas)

ILUSTRAÇÃO DE JEN CHRISTIANSEN

600 Milhões de anos

500

Olho ancestral: As evidências disponíveis sugerem que um protoolho não visual com retina de duas camadas evoluiu em um 400 0 antepassado dos vertebrados cerca de 550 milhões a 500 milhões de anos atrás 4 e que esse precursor do olho tipo câmera funcionava para detectar a luz que guiava o relógio interno do antepassado.

visual, e só mais tarde o poder de processamento neural e os componentes ópticos e motores necessários para a visão espacial evoluíram. Estudos de desenvolvimento embriológico do olho dos vertebrados apoiam essa hipótese. Quando a lampreia está na fase larval, vive em leito

3

Retina de três camadas Olho humano adulto

de riachos e é cega. Nesse estágio de vida, o olho assemelha-se ao do peixe-bruxa, com estrutura simples, sob a pele. Quando a larva sofre metamorfose, o olho rudimentar cresce substancialmente, desenvolve uma retina de três camadas, cristalino, córnea e músculos de apoio. Depois, o órgão

emerge na superfície como o olho tipo câmera dos vertebrados mandibulados. Muitos aspectos do desenvolvimento de um indivíduo espelham eventos que ocorreram durante a evolução de seus antepassados, assim podemos, com cautela, usar o desenvolvimento do olho da lampreia para SCIENTIFIC AMERICAN BRASIL AULA ABERTA

31


Cicatrizes da Evolução

Fotorreceptores

O olho dos vertebrados, longe de ser concebido de forma inteligente, contém inúmeros defeitos que atestam sua origem evolutiva. Entre os defeitos que degradam a qualidade da imagem, estão uma retina invertida, que força a luz a atravessar corpos celulares e fibras nervosas antes de atingir os fotorreceptores 1 ; vasos sanguíneos que se espalham pela superfície interna da retina, provocando sombras indesejadas 2 ; fibras nervosas que se juntam, projetam-se numa abertura única na retina e viram o nervo óptico, criando um ponto cego 3 .

1

relatar a nossa reconstrução de como o olho evoluiu. O sistema ocular dos mamíferos também apresenta indícios intrigantes de sua origem evolutiva durante o desenvolvimento embrionário. Benjamin E. Reese e seus colaboradores da University of California em Santa Barbara constataram que os circuitos da retina de mamíferos começam um pouco como os dos peixes-bruxa, com os fotorreceptores conectando-se diretamente com os neurônios de saída. Então, em um período de semanas, as células bipolares amadurecem e se inserem entre os fotorreceptores e os neurônios de saída. Essa sequência é exatamente o padrão de desenvolvimento esperado para confirmar se a retina de vertebrados evoluiu de um órgão de duas camadas, acrescentando poder de processamento e componentes de formação de imagens. Portanto, parece perfeitamente plausível que esse estágio inicial e simples de desenvolvimento representa o resquício de um período de evolução anterior à criação do circuito de células bipolares na retina e antes do surgimento do cristalino, córnea e músculos. ASCENSÃO DOS RECEPTORES Enquanto estudávamos o desenvolvimento das três camadas da retina, sur32 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

giu outra questão relativa à evolução do olho. As células fotorreceptoras em todo o reino animal se distribuem em duas categorias distintas: rabdoméricas e ciliares. Até recentemente, muitos cientistas acreditavam que os invertebrados usavam as rabdoméricas, enquanto vertebrados usavam as ciliares, mas, na verdade, a questão é mais complexa. Na grande maioria dos organismos, os fotorreceptores ciliares são responsáveis pela detecção de luz para fins não visuais, como regular o ritmo circadiano, por exemplo. Em contraste, os receptores rabdoméricos detectam a luz com o propósito explícito de permitir a visão. Tanto os olhos compostos dos artrópodes quanto os olhos tipo câmera dos moluscos – como os do polvo, que evoluíram de forma independente dos olhos tipo câmera dos vertebrados – usam fotorreceptores rabdoméricos. Mas o olho dos vertebrados usa fotorreceptores ciliares para detectar a luz para a visão. Em 2003, Detlev Arendt, do Laboratório Europeu de Biologia Molecular em Heidelberg, na Alemanha, relatou evidências de que o nosso olho ainda retém descendentes dos fotorreceptores rabdoméricos, que foram modificados para formar os neurônios de saída que enviam informações da retina para

2 Vaso sanguíneo

3 Nervo óptico

o cérebro. Essa descoberta indica que a nossa retina contém os descendentes das duas classes de fotorreceptores: as ciliares, originalmente fotorreceptores, e as rabdoméricas, transformadas em neurônios de saída. A evolução funciona exatamente assim, pressionando uma estrutura existente para um novo propósito; a descoberta de que os fotorreceptores ciliares e rabdoméricos desempenham papéis diferentes em nosso olho em comparação com os olhos de invertebrados acrescenta ainda mais peso à evidência de que o olho dos vertebrados foi construído num processo natural. Para tentar entender por que os fotorreceptores ciliares triunfaram como sensores de luz na retina de vertebrados, enquanto a classe rabdomérica evoluiu para neurônios de projeção, analisei as propriedades de seus respectivos pigmentos sensíveis à luz, as rodopsinas, assim denominadas devido à molécula da proteína opsina que contêm. Em 2004, Yoshinori Shichida e seus colegas da Universidade de Kyoto, no Japão, mostraram que bem no início da evolução dos pigmentos visuais de vertebrados ocorreu uma mudança que tornou a forma do pigmento ativada pela luz mais estável e, portanto, mais ativa. Postulei que essa

ILUSTRAÇÃO DE DON FOLEY

Retina


mudança também bloqueou a rota de reconversão da rodopsina ativada de volta à sua forma inativa, que no caso de rodopsinas rabdoméricas requer a absorção de um segundo fóton de luz; basicamente, uma via bioquímica foi necessária para recolocar a molécula em alerta para o sinal de luz. Assim que esses dois elementos foram colocados na devida proporção, eu supus que os fotorreceptores ciliares tiveram uma vantagem distinta sobre os fotorreceptores rabdoméricos em ambientes como o oceano profundo, onde os níveis de luz são muito baixos. Então, alguns cordados primitivos (ancestrais dos vertebrados) podem ter conseguido colonizar nichos ecológicos inacessíveis a animais que dependiam de fotorreceptores rabdoméricos – não porque a opsina ciliar melhorada garantia mais visão, mas por propiciar um modo melhorado de sentir a luz, permitindo que os relógios sazonais e circadianos tenham noção de tempo. Para esses cordados primitivos, habitantes de reinos mais escuros, os fotorreceptores rabdoméricos menos sensíveis de que dispunham, junto com os ciliares, teriam sido virtualmente inúteis e assim estariam livres para assumir um novo papel: de neurônios transmissores de sinais ao cérebro. (Nesse ponto, eles não precisavam mais de opsinas, e a seleção natural as teria eliminado dessas células.) NASCE UM OLHO Agora que os meus colegas e eu tínhamos ideia de como os componentes da retina dos vertebrados se originaram, quisemos entender como, há cerca de 500 milhões de anos, o olho evoluiu de um órgão sensor de luz não visual para esse que forma imagens. Novamente encontramos indícios em embriões em desenvolvimento. Na fase inicial, a estrutura neural que dá origem ao olho se projeta em um dos lados formando dois sacos ou vesículas. Depois, as vesículas se dobram, formando uma retina em forma de C que reveste o interior do olho. Provavelmente a evolução prosseguiu de forma bem semelhante. Nossa hipótese é que um proto-olho

deste tipo – com uma retina em forma de C, de duas camadas, composta de fotorreceptores ciliares no exterior e neurônios de saída oriundos de fotorreceptores rabdoméricos no interior – evoluiu em um ancestral de vertebrados entre 550 e 500 milhões de anos. Ele serviu como propulsor de um relógio interno, e talvez para ajudá-lo a detectar sombras e orientar o organismo de modo apropriado. Na etapa seguinte do desenvolvimento embrionário, enquanto a retina dobrase para o interior, forma-se o cristalino, oriundo de um espessamento da superfície externa do embrião, ou ectoderma, que se protrai no espaço curvo vazio formado pela retina em forma de C. Por fim, essa protrusão se separa do resto do ectoderma, tornando-se um elemento de livre flutuação. Parece provável que uma sequência de transformações muito semelhantes ocorreu durante a evolução. Não sabemos exatamente quando aconteceu, mas em 1994, cientistas da Universidade de Lund, na Suécia, mostraram que os componentes ópticos do olho podem ter evoluído facilmente em 1 milhão de anos. Com o surgimento do cristalino para captar a luz e focar imagens, a capacidade de o olho coletar informações melhorou muito. Esse progresso teria criado pressões seletivas favorecendo o surgimento de processamento de sinal melhorado na retina além do que a simples ligação de fotorreceptores para neurônios de saída oferecia. A evolução satisfez essa necessidade, modificando o processo de maturação das células para que algumas células em desenvolvimento em vez de formar fotorreceptores ciliares se tornassem células bipolares da retina que se inserem entre a camada de fotorreceptores e a de neurônios de saída. É por isso que as células bipolares da retina são tão semelhantes aos bastonetes e cones, embora não tenham rodopsina e recebam a entrada não da luz, mas da substância química liberada pelos fotorreceptores. Embora os olhos tipo câmera proporcionem um amplo campo de visão (basicamente em torno de 180

graus), na prática nosso cérebro consegue processar apenas uma fração da informação disponível a qualquer momento devido ao número limitado de fibras nervosas que ligam o olho ao cérebro. Sem dúvida, os olhos tipo câmera primitivos enfrentaram uma limitação ainda mais séria, pois se supõe que tivessem ainda menos fibras nervosas. Assim, houve pressão seletiva considerável na evolução dos músculos para movimentarem os olhos. Esses músculos deviam existir há 500 milhões de anos, porque a estrutura deles na lampreia, cuja linhagem remonta a essa época, é quase idêntica à dos vertebrados mandibulados, inclusive nós, seres humanos. Para todos os aspectos engenhosos da evolução ocorridos dentro do olho dos vertebrados, há vários caracteres decididamente deselegantes. Por exemplo, a retina está invertida, então a luz tem de passar por toda a sua espessura, através das fibras nervosas intermediárias e corpos celulares que dispersam a luz e degradam a qualidade da imagem, antes de atingir os fotorreceptores sensíveis à luz. Os vasos sanguíneos também cobrem a superfície interna da retina e lançam sombras indesejáveis na camada de fotorreceptores. A retina tem um ponto cego onde fibras nervosas que passam por toda a sua superfície se reúnem antes de canalizar pela retina e surgirem por trás dela como nervo óptico. E a lista vai longe. n

O AUTOR Trevor D. Lamb é pesquisador do departamento de neurociência da John Curtin School of Medical Research e do ARC Center of Excellence in Vision Science da Australian National University, em Canberra, Austrália. Sua pesquisa se concentra nos fotorreceptores bastonetes e cones da retina de vertebrados. PARA CONHECER MAIS The evolution of phototransduction and eyes. Philosophical Transactions of the Royal Society B, vol. 364, no 1531, págs. 2789-2967, 12 de outubro de 2009. The evolution of eyes. Edição especial de Evolution: Education and Outreach, vol. 1, no 4, págs. 351-516, outubro de 2008. Evolution of the vertebrate eye: opsins, photoreceptors, retina and eye cup. Trevor D. Lamb et al., em Nature Reviews Neuroscience, vol. 8, págs. 960975, dezembro de 2007.

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

33



GEOGRAFIA

O último grande aquecimento global Novas e surpreendentes evidências sugerem que o ritmo do aquecimento global pré-histórico mais abrupto da Terra não foi nada comparado ao que enfrentamos hoje POR LEE R. KUMP

ILUSTRAÇÃO DE RON MILLER

O

s ursos polares atraem a maioria dos visitantes a Spitsbergen, a maior ilha do arquipélago de Svalbard, na Noruega. Para mim, a atração eram as rochas. No verão de 2007, meus colegas e eu, geólogos e climatologistas, voamos para essa ilha remota do Ártico para encontrar a evidência definitiva do que era então considerado o episódio mais abrupto de aquecimento global de todos os tempos. Uma caminhada puxada de duas horas a partir de nosso velho barracão, no ex-vilarejo de mineração de carvão Longyearbyen, levava até os afloramentos rochosos que poderiam guardar essas pistas; então partimos bem

cedo após uma noite de descanso. Enquanto nos arrastávamos ao longo dos bolsões escorregadios de neve e plantas raquíticas, imaginei um tempo em que as palmeiras, samambaias e provavelmente jacarés viviam nessa área. Naquela época, cerca de 56 milhões de anos atrás, eu teria ficado encharcado de suor, em vez de lutar contra o frio. As pesquisas indicaram que, ao longo de alguns milhares de anos, um mero instante no tempo geológico, as temperaturas globais subiram 5 graus, evidenciando uma febre planetária conhecida pelos cientistas como o Máximo Térmico do Paleoceno-Eoceno, ou MTPE. As SCIENTIFIC AMERICAN BRASIL AULA ABERTA

35


zonas climáticas se deslocaram para os polos, na terra e no mar, obrigando as plantas e os animais a migrar, se adaptar ou morrer. Alguns locais mais profundos do oceano tornaram-se ácidos e sem oxigênio, exterminando muitos organismos. Levou cerca de 200 mil anos para os amortecedores naturais do planeta baixarem a febre. O MTPE apresenta algumas semelhanças com as mudanças climáticas que ocorrem agora, provocadas pelo homem. O motivo EFEITO ESTUFA principal foi uma Significa o aquecimeninjeção massiva to das baixas camadas de gases de efeito da atmosfera devido à retenção pelas nuvens, estufa retentores poeiras e gases poluende calor na atmostes das radiações infrafera e nos oceavermelhas emitidas pela superfície terrestre. nos, comparável em volume ao que nossa persistente queima de combustíveis fósseis poderá produzir nos próximos séculos. O conhecimento exato do que se passou durante o MTPE poderia nos ajudar a prever como deverá ser o futuro. Mas, até recentemente, na melhor das hipóteses, as questões sobre o acontecimento eram mera especulação. As novas respostas permitem um pouco mais de clareza, sugerem que as consequências do último maior aquecimento global do planeta não foram nada em comparação ao que está por vir e acrescentam uma nova base para as previsões do futuro. Atualmente os cientistas acreditam que o MTPE desenrolou-se assim: como acontece com a crise climática atual, o MTPE até certo ponto começou com a queima de combustíveis fósseis. Na época, o supercontinente Pangeia estava nos estágios finais de ruptura, e a crosta terrestre se rasgava, formando o nordeste do oceano Atlântico. Assim, volumes enormes de rocha derretida e calor intenso subiam por toda a massa terrestre que abrangia a Europa e a Groenlândia, queimando os sedimentos ricos em carbono e talvez até carvão e petróleo perto da superfície. E os sedimentos queimados emitiam enormes quantidades de dois gases poderosos de efeito estufa: o dióxido de carbono e o metano. A julgar pelo volume de erupções, os vulcões 36 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

provavelmente foram responsáveis por consomem os resquícios do degelo, libeum acúmulo inicial de gases de efeito rando metano. Os cientistas temem que estufa da ordem de algumas centenas de a liberação do metano do Ártico desconpetagramas (1015 gramas) de carbono, gelado possa aumentar extremamente o o suficiente para elevar a temperatura aquecimento induzido pelos combusglobal em alguns graus. Mas a maioria tíveis fósseis. A contribuição potencial das análises, inclusive a nossa, sugere que do derretimento do permafrost durante foi preciso algo mais para impulsionar o o MTPE foi ainda mais dramática. Na época, o planeta era mais quente, mesMTPE à temperatura máxima. Uma segunda fase de aquecimento mo antes do MTPE a Antártida não mais intenso começou quando o calor tinha os lençóis de gelo que cobrem a induzido pelos vulcões liberou outros terra congelada atualmente. Mas esse tipos de gases. A agitação natural dos continente ainda teria tido o permafrost oceanos conduziu o calor para o fundo – tudo basicamente “deixado sobre a frio do mar, onde ele parece ter deses- pia” para descongelar. Quando o gás começou a ser liberatabilizado enorme quantidade de depósitos de hidratos de metano congelados do, os oceanos absorveram grande pare enterrados ali. Conforme os hidratos te do CO2 (e o metano posteriormente descongelaram, o gás metano borbu- se converteu em CO2). No início, esse lhou até a superfície, adicionando mais sequestro natural de carbono ajudou a carbono à atmosfera. O metano na at- bloquear o aquecimento. Mas, no fim, mosfera retém o calor de modo muito tanto gás escoou para o oceano profunmais eficaz que o CO2, mas se converte do que criou excesso de ácido carbônirapidamente em CO2. Ainda assim, en- co, um processo conhecido como acidiquanto a liberação de metano prosse- ficação. Além disso, enquanto o fundo guia, elevadas concentrações desse gás do mar aquecia, o conteúdo de oxigênio teriam se mantido, ampliando em mui- diminuía (a água mais quente não consegue reter tanto esse gás essencial para to o efeito estufa. Houve, provavelmente, várias ou- a vida quanto a água fria). Essas mudantras respostas positivas ao mesmo tem- ças representaram um desastre para os po, como o pico do aquecimento indu- foraminíferos, organismos microscópizido pelo hidrato, liberando ainda mais cos que viviam no leito oceânico e em carbono dos reservatórios em terra. A seus sedimentos. Os registros fósseis secagem, o cozimento e a queima de ma- revelam sua incapacidade de sobreviver: terial vivo emitem gases de efeito estufa. 30-50% dessas espécies se extinguiram. Desde 1990, estava claro que uma As secas que teriam ocorrido em várias partes do planeta, inclusive no oeste dos liberação significativa de gases de efeito Estados Unidos e na Europa Ocidental, estufa alimentou o MTPE quando uma provavelmente expuseram as florestas e dupla de cientistas da Califórnia identias turfeiras à desidratação e, em alguns ficou o acontecimento num registro do casos, a incêndios generalizados, libe- clima de vários milhões de anos de um núcleo de sedimenrando ainda mais CO2. Os fogos to extraído do funardentes em veios de turfa e car- PERMAFROST Tipo de solo encontrado nas vão, que duraram séculos, podem regiões polares. Consiste do do mar perto da ter mantido essa descarga ainda em uma camada de terra, Antártida. Menos gelo e rochas permanenteaparentes foram os mais intensa. mente congelados, daí o O derretimento do permafrost nome oriundo da língua detalhes, inclusive em regiões polares provavelmente inglesa, recoberta por outra quanto gás foi libegelo e neve que se derrado, que gás preagravou a situação. O permafrost, de rete no verão. dominava, quanto solo congelado que prende plantempo a liberação tas mortas por milhões de anos, é como um hambúrguer congelado no durou e a origem desse processo. Nos anos seguintes a essa descoberfreezer. Coloque-o na pia da cozinha e ele apodrece. Da mesma forma, quando ta, cientistas analisaram centenas de o permafrost degela, os microrganismos outros núcleos de sedimentos do fundo


Agora e Antes

GRÁFICO DE JEN CHRISTIANSEN; FONTES: “THE MILLENNIAL ATMOSPHERIC LIFETIME OF ANTHROPOGENIC CO 2”, POR DAVID ARCHER E VICTOR BROVKIN, EM Climatic Change, VOL. 90, 2008 ( curva moderna ); “MODERN RATES OF FOSSIL FUEL BURNING EXCEED RATES OF FOSSIL CARBON EMISSION DURING THE PALEOCENE-EOCENE THERMAL MAXIMUM”, POR YING CUI et al., EM Nature Geoscience (curva do PETM)

8 (em graus Celsius)

Elevação de temperatura Elevação de temperatura (em Graus Celsius)

A evolução do aquecimento global depende da rapidez com que os gases de efeito estufa se acumulam na atmosfera. As projeções preveem um aquecimento de cerca de 8 graus até 2400 se a queima de combustíveis fósseis e o sequestro de carbono não se alterarem. A liberação de carbono prevista, cerca de 5 mil petagramas, é semelhante em volume ao gerado no Máximo Termal Paleoceno-Eoceno (MTPE), mas o índice do passado, que se acreditava ter sido rápido, foi mais lento que hoje.

A temperatura global está aumentando muito mais rapidamente hoje que durante o MTPE

4

0

Atual: abastecida por índices elevados de emissão (até 25 petagramas de carbono por ano), a temperatura global vem se elevando rapidamente e se estabilizará apenas quando as emissões cessarem MTPE: emissões lentas, mas regulares (até 1,7 petagrama de carbono por ano), resultaram em aquecimento mais gradual do planeta há cerca de 56 milhões de anos

Onde Onde estamos estamos hoje hoje

10.000 10.000

Início (em(em anos) Duração anos) Iníciodedeliberação liberaçãodedegases gasesde deefeito efeitoestufa. estufaDuração

do mar em busca de respostas. Como mais completo e, finalmente, resolver alos sedimentos se depositam lentamen- gumas das questões sem resposta sobre te, camada por camada, eles retêm mi- esse episódio antigo de aquecimento. Na nerais, inclusive restos de esqueletos de verdade, pretendíamos tirar nossas amosvida marinha que guardam as assinatu- tras de um planalto erodido e não do mar. ras da composição dos oceanos ou da Os sedimentos que buscávamos estavam atmosfera circundantes, além das for- depositados em uma antiga bacia oceânimas de vida presentes no momento da ca, e as forças tectônicas em jogo desde o MTPE haviam impulsionado a deposição. A mistura de difeárea acima do nível do mar, onde rentes formas ou isótopos dos ISÓTOPOS de um mais tarde os glaciares da idade do átomos de oxigênio nos restos Átomos mesmo elemende esqueletos revelou a tempe- to que possuem gelo a esculpiram numa cadeia de distinto número montanhas íngremes espetacularatura da água, por exemplo. res e vales amplos em Spitsbergen. Quando bem conservados, de prótons. Após essa primeira viagem de esses núcleos oferecem um belo registro da história do clima. Mas investigação a Longyearbyen, enquanto muitos dos que incluíam o MTPE não planejávamos os trabalhos de campo e estavam em boas condições. Faltavam de coleta de rochas, fizemos uma descopartes, e as que restaram haviam sido berta que economizou muito trabalho degradadas pela passagem do tempo. pesado. Soubemos por um geólogo local O sedimento do fundo do mar normal- com visão de futuro que uma empresa mente é rico em carbonato de cálcio, o de mineração norueguesa para a qual ele mesmo composto químico de compri- trabalhara teria perfurado camadas de sedimentos que cobriam midos antiácidos. Durante o MTPE, a acidificação ACIDIFICAÇÃO DOS OCEANOS os anos da era MTPE, dos oceanos dissolveu a Aumento da quantidade de dióxi- anos antes. Ele hado de carbono absorvido pelos maioria do carbonato nos oceanos, provocando mudança via se encarregado de sedimentos exatamente significativa no pH da água, a preservar quilômetros nas camadas em que as ponto de impedir o desenvolvi- do núcleo que espemento de arrecifes de corais. rava serem úteis para condições mais evidentes algum cientista e nos da era MTPE deveriam esconduziu a um enorme galpão de metal tar representadas. É por isso que os meus colegas e eu na periferia da cidade, onde o núcleo esnos encontramos em Spitsbergen, em tava armazenado, desde que fora corta2007, com um grupo de pesquisadores da do em cilindros de 1,5 m de comprimenInglaterra, Noruega e Holanda, patroci- to e guardado em centenas de caixas nados pela Worldwide Universities Net- baixas de madeira. Nosso empenho no work. Tínhamos motivo para acreditar resto da viagem, e durante uma segunda que as rochas dessa parte do Ártico, com- visita em 2008, foi direcionado à obtenpostas quase que inteiramente de lama ção de amostras de partes selecionadas e argila, poderiam fornecer um registro daquele longo núcleo.

20.000 20.000

De volta ao laboratório, por vários anos extraímos as assinaturas químicas específicas das amostras que poderiam nos dizer sobre o estado da Terra antes e depois do MTPE. Para entender mais sobre o conteúdo de gases de efeito estufa no ar, estudamos a mistura mutante de isótopos de carbono que obtivemos na maioria de vestígios de matéria orgânica preservados na argila. Com as extrações e análises de mais de 200 camadas do núcleo, pudemos juntar as peças de como esses fatores mudaram com o tempo. Como suspeitávamos, a assinatura isotópica de carbono mudou drasticamente nas camadas de 56 milhões de anos. TEMPO EXTENSO Nossos núcleos árticos se mostraram muito especiais. Os primeiros a registrarem o tempo global do aquecimento MTPE e de recuperação forneceram um registro muito mais completo do período em que gases de efeito estufa estavam sendo liberados na atmosfera. Suspeitamos que a fidelidade sem precedentes desses registros climáticos acabaria por fornecer as respostas mais definitivas, até aquele momento, sobre a quantidade, fonte e a duração da liberação de gás. Mas para isso tivemos de ir além das extrapolações de composição e concentração de materiais nos núcleos. Pedimos a Ying Cui, minha aluna de pós-graduação da Pennsylvania State University, para executar um modelo de computador que simulasse o aquecimento com base no que sabíamos sobre as mudanças nas assinaturas de isótopos de carbono dos núcleos do Ártico e do grau de dissolução de carbonato dos núcleos de leito oceânico. SCIENTIFIC AMERICAN BRASIL AULA ABERTA

37


38 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

Leve

Moderado

Alto

Durante anos os Lições de cientistas consideraram o MTPE o exemAquecimentos Passados plo supremo do extreAs febres planetárias repentinas, mo oposto: a mudança como no cenário de hoje, são muito mais rápida de clima já mais complicadas para a vida que conhecida, rivalizanas mais lentas. Os registros fósseis do com as projeções mostram que a mudança lenta para mais pessimistas soo efeito estufa durante o Cretáceo, bre o futuro. Sob essa 120-90 milhões de anos atrás, foi luz, as consequências inócua em relação ao MTPE, mil do MTPE não parevezes mais abrupto. O último ciam tão ruins. Além episódio foi analisado em busca de dos desafortunados indícios de como será a nossa tendência de aquecimento, mas foraminíferos no mar atualmente a mudança muito brusca profundo, parece que de temperatura sugere que as todos os animais e consequências para a vida na Terra plantas sobreviveram serão mais severas que qualquer à onda de calor, mesevento anterior. mo que tivessem de sofrer algumas adap146 milhões de anos atrás (maa) tações sérias. Alguns organismos encolheram. Em especial, os mamíferos do MTPE são menores que seus C R E T antecessores e descendentes. Eles evoluíram assim possivelmente porque os corpos menores dissipam o calor melhor invocaram suas inócuas consequências que os maiores. Os insetos e vermes de biológicas para justificar a isenção da solo também encolheram. queima de combustíveis fósseis preciA grande migração para os polos sam repensar suas posições. Em comsalvou outros animais. Alguns até pro- paração, a mudança de clima em curso liferaram nos territórios expandidos. no momento ocorre a uma velocidade No mar, o dinoflagelado Apectodi- vertiginosa. Em décadas, o desmatanium, que costumava habitar as regiões mento, os carros e as usinas de enersubtropicais, se espalhou para o ocea- gia movidas a carvão da revolução no Ártico. Em terra, muitos animais industrial aumentaram o CO2 em mais que foram confinados aos trópicos se de 30%, e agora estamos bombeando deslocaram para a América do Norte nove petagramas de carbono na ate a Europa pela primeira vez, inclusive mosfera todos os anos. Projeções que tartarugas e mamíferos de casco. No incluem o crescimento populacional e caso dos mamíferos, essa expansão a crescente industrialização dos países abriu inúmeras oportunidades para a em desenvolvimento indicam que o ínevolução e preenchimento de novos ni- dice pode chegar a 25 petagramas por chos, com implicações profundas para ano antes de todas as reservas de comos seres humanos: essa enorme diversi- bustíveis fósseis se esgotarem. ficação incluiu a origem dos primatas. Os cientistas e políticos que lidam com os potenciais efeitos das alterações RÁPIDO DEMAIS? climáticas geralmente se concentram Agora sabemos que o ritmo do MTPE, nos produtos finais: quanto gelo vai dermesmo em termos pessimistas, foi mo- reter? Quanto o nível do mar vai subir? derado e não tão rápido. Assim, os que A nova lição do estudo sobre o MTPE Dano à vida

Ying tentou diferentes cenários e cada um deles levou um mês de tempo de computador para simular a história completa do MTPE. Alguns simularam, por exemplo, maiores contribuições de hidratos de metano. Outros se concentraram em fontes de CO2. O cenário que melhor se adequou à evidência física exigiu a adição de 3 mil a 10 mil petagramas de carbono na atmosfera e no oceano, muito mais que os vulcões ou hidratos de metano poderiam fornecer; o permafrost ou a turfa e o carvão deveriam estar envolvidos nessa história. Essa estimativa foi mais alta que as feitas anteriormente com base em assinaturas isotópicas de outros núcleos e modelos de computador. Mas o que mais nos surpreendeu foi que essa liberação de gás se distribuiu por 20 mil anos, período de tempo entre 2 e 20 vezes a mais do que já fora projetado anteriormente. Essa longa duração implica que o índice de liberação durante o MTPE foi inferior a dois petagramas por ano – uma mera fração do índice em que a queima de combustíveis fósseis lança gases de efeito estufa na atmosfera hoje. As concentrações de CO2 vêm aumentando provavelmente a uma velocidade dez vezes mais rápida que durante o MTPE. Essa nova percepção tem implicações profundas para o futuro. O registro fóssil revela que a rapidez de mudança climática provoca maior impacto nas formas de vida e ecossistemas que a extensão da mudança. Assim como é preferível um abraço de um amigo a um soco no estômago, as formas de vida respondem de modo mais favorável a mudanças lentas. Foi o caso da mudança drástica CRETÁCEO para um clima de esÉ o último período geológico da era tufa durante o CreMesozoica. Abrange táceo (que terminou o intervalo de tempo entre 136 e 65 milhões 65 milhões anos atrás, de anos atrás. quando o impacto de um asteroide exterminou os dinossauros). A magnitude total do aquecimento de efeito estufa durante o Cretáceo foi semelhante à do MTPE, mas esse episódio anterior se desenrolou em milhões de anos, e não em milhares de anos. Não ocorreram extinções notáveis, o planeta e seus habitantes tiveram muito tempo para se adaptar.


Efeito estufa do Cretáceo (Lento) Índice de aquecimento: 0,000025oC por 100 anos Duração: milhões de anos Aquecimento total: 5oC Causa principal: erupções vulcânicas Mudança ambiental: oceanos absorvem dióxido de carbono lentamente e não acidificam Resposta biológica: quase todos os animais tiveram tempo de se adaptar ou migrar

ILUSTRAÇÕES DE RON MILLER, GRÁFICOS DE EMILY COOPER

Á

C

E

MTPE (Mais ou menos rápido) Índice de aquecimento: 0,025°C por 100 anos Duração: milhares de anos Aquecimento total: 5oC Causa principal: vulcões; metano do leito oceânico; queima de carvão e turfa; degelo do permafrost Mudança ambiental: acidificação do fundo do mar Resposta biológica: extinção de alguns seres e plantas do leito oceânico

65 maa

56 maa

O

PALEOCENO

Aquecimento moderno (Acelerado) Índice de aquecimento: 1-4°C por 100 anos Duração: décadas a centenas de anos Aquecimento total: 2-10°C, projetados para os próximos 200-300 anos Causa principal: queima de combustível fóssil Mudança ambiental: acidificação do oceano, clima radical, derretimento de geleiras, elevação do mar Resposta biológica: deslocamento de muitas espécies para os polos, perda de hábitat

34 maa

EOCENO

é que eles também deveriam perguntar: e Carl Safina, Scientific American com que rapidez essas mudanças ocorre- Brasil, setembro de 2010). A extinrão? Os habitantes da Terra terão tempo ção de espécies está aumentando, e o para se adaptar? Se a mudança ocorrer deslocamento das zonas climáticas já muito rapidamente, ou se os obstáculos colocou a sobrevivência de plantas e à migração ou à adaptação se acumula- animais em perigo, muitas vezes com rem, a vida perde: os animais e plantas vetores transmissores de doenças e esentram em extinção, e a aparência do pécies invasoras ganhando novos territórios. Ao contrário do que ocorreu mundo se modifica por milênios. Como estamos na fase inicial da fe- com o MTPE, as plantas e os animais bre planetária atual, é difícil prever o modernos agora têm estradas, ferrovias, futuro. Mas já sabemos algumas coisas. represas, metrópoles e cidades bloqueComo se resumiu em relatórios recentes ando os caminhos migratórios a climas mais adequados. Atualmente, a do Painel Intergoverna- IPCC mental sobre Mudan- Sigla inglesa de Painel maioria dos animais de grande porte já está confinada em áreas ça Climática (IPCC), Intergovernamental sobre Mudanças Clios ecossistemas vêm máticas. É um órgão minúsculas com perda de hábitat respondendo sensivel- composto por delega- e, em muitos casos, as oportunimente ao aquecimen- ções de 130 governos dades de avançar para latitudes para prover avaliato. Há uma evidência ções regulares sobre novas para sobreviver são nulas. Além disso, as geleiras e os clara de acidificação a mudança climática. lençóis de gelo estão derretendo nas águas superficiais, que resultam em estresse sobre a vida e elevando o nível do mar, os recifes esmarinha (ver “Oceanos ameaçados de tão cada vez mais sujeitos às doenças e dentro para fora”, por Marah J. Hardt ao estresse pelo calor, e a ocorrência de

Hoje

secas e inundações é cada vez mais comum. As mudanças nos padrões de precipitação e a elevação das linhas costeiras enquanto o gelo polar derrete podem contribuir para migrações humanas em massa numa escala sem precedentes. Algumas já começaram. ■ O AUTOR Lee R. Kump é professor de geociências da Pennsylvania State University e coautor do livro Dire predicitons: understanding global warming (DK Adult, 2008). As febres planetárias são sua especialidade. PARA CONHECER MAIS The Paleocene-Eocene thermal maximum: a perturbation of carbon cycle, climate, and biosphere with implications for the future. Francesca A. McInerney e Scott L. Wing, em Annual Review of Earth and Planetary Sciences, vol. 39, págs. 489-516, maio de 2011. America’s climate choices. Comitê do America’s Climate Choices, National Research Council of the National Academies. The National Academies Press, 2011. Slow release of fossil carbon during the Palaeocene-Eocene thermal maximum. Ying Cui et al., em Nature Geoscience.

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

39


QUÍMICA

Desafios para transformar conceitos em realidade Etanol celulósico, também chamado de segunda geração, representa uma alternativa energética extremamente promissora. Mas, para isso, um conjunto de desafios deve ser satisfatoriamente vencido POR PAULO SELEGHIM JR. E IGOR POLIKARPOV

O

etanol é a jabuticaba dos combustíveis: uma solução tipicamente brasileira que está ganhando o mundo. Além de seu uso em diversos setores industriais, o etanol, “álcool” como estamos habituados a dizer, é um combustível de alto desempenho para aplicação em motores de combustão interna. Pode ser adicionado em qualquer proporção à gasolina sem que seja necessário moANTIDETONANTES dificar substancialSão substâncias acrescentadas à mistura mente o motor. De comercial da gasolina fato, o etanol mistuque retardam o processo rado à gasolina age de detonação do combustível. Essa proprieda- como um antidetode se chama octana- nante permitindo o gem. Os principais anti- aumento da taxa de detonantes são o etanol, o metanol, o chumbo- compressão e resultetraetila e o metil-terc-bu- tando em aumento til éter (MTBE). da eficiência energética com diminuição da emissão de poluentes. O grande sucesso dos motores flex no Brasil é exemplo eloquente da introdução de um biocombustível como fonte primária de energia, viável tanto 40 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

do ponto de vista técnico quanto econômico. Também é bastante significativo tratar-se de uma fonte renovável com um dos menores índices de emissão de CO2 fóssil: aqui a produção de 9,3 joules (joule é a unidade de energia e trabalho) de etanol de cana-de-açúcar requer aproximadamente um joule de gasolina ou óleo diesel. Comparação semelhante pode ser feita com o etanol produzido a partir do trigo e da beterraba, cuja relação é de 2 unidades de energia renovável ao custo de uma unidade de energia fóssil. Porém, em países onde as condições de cultivo são menos favoráveis, essa relação pode chegar a valores próximos de 1:1, como é o caso nos Estados Unidos, onde um joule de insumos fósseis produz apenas 1,4 joule de etanol de milho, que deve ainda contar com fortes subsídios para sua sustentação econômica. Essa constatação levou a uma série de questionamentos que colocam em dúvida a viabilidade do etanol como substituto universal da gasolina e óleo diesel para uso veicular. Talvez uma das questões mais im-

portantes, neste caso, seja sua influência sobre o preço dos alimentos. Efetivamente, na medida em BIOCOMBUSTÍVEIS que as tecnologias atuais São obtidos da biode produção em larga massa renovável. Os escala de biocombustí- mais importantes são o etanol e o biodiesel, veis baseiam-se na con- p r o v e n i e n t e s d e versão de carboidratos moléculas de gliceríou óleos vegetais, a pro- deos, como os óleos de mamona e soja, ou dução de etanol a partir de gorduras animais. destas matérias-primas forçosamente competirá com a produção de alimentos. Isto vem ocorrendo em muitos países que criaram programas de estímulo à produção de biocombustíveis, embora o recente aumento de preços dos alimentos não possa ser exclusivamente creditado a isso. A importância desse problema tende a ser subavaliada no Brasil porque, aqui, simplesmente não observamos esse efeito devido à nossa grande vocação agrícola. Ao contrário do etanol de primeira geração, produzido a partir de carboidratos, o etanol celulósico, também chamado de segunda geração por basear-se na conversão da biomassa ligno-celulósica,


MATT COLLINS

representa uma solução extremamente promissora porque conviveria com a produção de biomassa alimentar sem competição. Um produtor de milho, por exemplo, pode comercializar os grãos para uma fábrica de ração animal e destinar o restante da biomassa (folhagem, caule etc). para a produção de etanol celulósico. Em números mais exatos, uma típica usina processando 500 toneladas por hora de cana-de-açúcar é capaz de produzir cerca de 45 mil litros por hora de etanol de primeira geração e aproximadamente 150 toneladas de bagaço que, hoje, são integralmente convertidas em energia elétrica a uma taxa de 50 MW. Alternativamente, esse bagaço seria transformado em outros 42 mil litros por hora de etanol de segunda geração. Ou seja, pode-se praticamente dobrar a produção total de etanol sem que seja

CARBOIDRATOS Também chamados de glicídios ou açúcares, são as biomoléculas mais abundantes da Natureza. São responsáveis por várias funções importantes no organismo, como o suprimento e reserva de energia. Entre eles destacam-se a sacarose, a glicose e o amido.

necessário aumentar a área de plantio ou qualquer outra consequência negativa para o setor agrícola. Mas, se é tão bom assim, por que a produção de etanol celulósico se restringe aos laboratórios de pesquisa e a algumas poucas instalações de demonstração? Por que o etanol celulósico não está sendo produzido em larga escala, principalmente no Brasil, onde já existe uma grande frota de carros flex que podem consumir esse combustível? A razão é simples: apesar de todo potencial, o etanol celulósico ainda não é viável economicamente. É nosso objetivo mostrar o porquê deste problema, bem como delinear os desafios científicos e tecnológicos envolvidos na sua solução. A produção industrial de etanol baseia-se quase que exclusivamente na fermentação. A fermentação é um processo biológico de conversão de açúcares simples em energia celular, etanol e gás carbônico. A grande maioria dos microrganismos é capaz de metabolizar apenas açúcares simples como a sucrose, frutose

e glicose, cuja reação FRUTOSE E GLICOSE química para verificar São açúcares simples classificados como este último pode ser monossacarídeos. São expressa por C6H12O6 obtidos na hidrólise da energia + 2C2H5OH + sacarose. Suas moléculas têm alto poder de 2CO2. Uma vez que a solubilidade em água energia contida no eta- devido à presença de nol ainda é bastante vários grupos hidroxila. grande, a fermentação é um processo normalmente associado a seres unicelulares simples que não necessitam de muito para sobreviver. Seres vivos mais complexos normalmente oxidam o açúcar (respiração), porque esse processo libera muito mais energia, cujo excedente é POLISSACARÍDEOS armazenado na forma São carboidratos de gordura. As plantas que, quando hidrolisados, originam uma armazenam a energia grande quantidade excedente montando de moléculas de cadeias mais longas monossacarídeos, geralmente a glicose. de açúcares simples São polímeros natu(polissacarídeos) uni- rais. As várias molédos através de ligações culas de glicose se unem por ligações glichamadas de glicosídi- cosídicas. São glicícas. Os diversos tipos dios que não têm de amido representam sabor doce. Exemplos: amido e celulose.

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

41


Pectina Lamela média Microfibrila de celulose Parede celular primária Hemicelulose

Membrana plasmática

Proteína solúvel

excelente exemplo de principal fonte de alimentos da humanidade. DESAFIOS DE COMPLEXIDADE O ponto importante aqui é que a metabolização de um polissacarídeo se torna progressivamente mais difícil à medida que aumenta a complexidade de sua cadeia. Portanto, seu aproveitamento energético requer, primeiramente, disponibilizar os açúcares mais simples para, em seguida, promover a quebra das ligações glicosídicas com auxílio da ação externa de um coadjuvante. Diversas estratégias foram desenvolvidas pelos organismos para o aproveitamento dessa fonte de energia, incluindo a produção direta de enzimas glicolíticas por fungos e bactérias, ou a combinação de ácidos e ação mecânica. É por isso que não podemos nos alimentar diretamente de grãos como o trigo, o arroz e o feijão, sem antes submetê-los a algum processo de cozimento. Na pré-história, o domínio do fogo possibilitou uma grande diversificação em nossas fontes de alimen42 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

polimerização de açúcares, mas com diversos anéis aromáticos em sua estrutura, o que a torna amorfa e hidrófoba. A lignina funciona como elemento aglutinante da trama celulósica, dando rigidez mecânica à planta como um todo, razão pela qual é mais comumente encontrada nos vegetais lenhosos. Numa analogia livre, a biomassa ligno-celulósica poderia ser comparada ao concreto armado usado na construção de prédios, pontes etc.: a celulose e a hemicelulose são a grade formada por barras de aço e a lignina é o cimento que envolve e une o conjunto.

to e essa é uma das principais razões de no interior da célula), além de agir como barreira seletiva. Sua estrutura é bastannosso sucesso como espécie. Mas, e a biomassa? O que se pode fa- te elaborada, dividindo-se em camadas e zer, por exemplo, com o bagaço após ex- formando redes de microfibras de celulotrair o caldo da cana-de-açúcar? Antes é se entrelaçadas a filamentos de hemicelupreciso destacar que a biomassa, além da lose e de pectina. Os espaços vazios são preenchidos por lignina que celulose, inclui outros comatua como aglutinante danpostos como a hemicelulo- LIGNINA Substância de molécula se, a lignina e a pectina que, amorfa e tridimensional do resistência à compressão, em conjunto, constituem a que existe associada à razão pela qual é mais comuna parede das mente encontrada nas planchamada biomassa ligno- celulose células vegetais. É rescelulósica. Diferentemente ponsável pelas proprieda- tas lenhosas que surgiram há dos amidos, a celulose é um des de rigidez e imper- menos tempo na Natureza bilidade à água des(vegetais superiores). polissacarídeo formado pela mea ses tecidos vegetais. Essas características expolimerização de dezenas de milhares de monômeros de açúcar. É plicam por que poucos microrganismos sintetizada pelas plantas verdes e totaliza conseguem se alimentar da lignina: não cerca de 33% de toda a biomassa vegetal tiveram tempo de desenvolver enzimas do planeta, podendo chegar a 90% no específicas para sua digestão. Isso reprealgodão e a 50% nas espécies lenhosas. sentou, para os vegetais, uma estratégia A celulose é o principal componente da de sobrevivência muito bem-sucedida e parede celular vegetal, conferindo-lhe a é resultado dos mecanismos da evolucapacidade de suportar tensões mecâni- ção e seleção natural. Todas essas cacas externas (peso próprio, ventos etc.) racterísticas dificultam enormemente o e pressões osmóticas (ajuda a reter água acesso aos açúcares mais simples, uma

ERIKA ONODERAR

A PAREDE DAS CÉLULAS VEGETAIS, onde a maior parte da biomassa se concentra, é tipicamente formada por uma rede de fibras de celulose entrelaçadas por fios de hemicelulose e pectina. Estas três substâncias são constituídas pela polimerização de um número muito grande de açúcares simples (glicose), sendo que a celulose apresenta uma estrutura quase que cristalina, enquanto a hemicelulose e a pectina têm estrutura menos regular. Os espaços vazios dessa trama são preenchidos por uma substância chamada lignina, também formada pela


© BRUCE DALE/NATIONAL GEOGRAPHIC/Getty Images

propriedade conhecida como recalcitrância. Portanto, o aproveitamento da celulose para a produção de etanol só poderá ocorrer se sua recalcitrância for vencida, ou seja, se seus monômeros de açúcar estiverem previamente disponíveis para o processo fermentativo. E este é exatamente o nó da questão. De maneira geral, a disponibilidade dos açúcares simples para a fermentação deve passar por duas etapas: a desagregação das macroestruturas ligno-celulósicas (pré-tratamento) e, em seguida, a quebra das ligações glicosídicas (hidrólise). Estudos mostram que a hidrolisação do material ligno-celulósico sem pré-tratamento é inferior a 20%, enquanto, auxiliada por qualquer um dos principais métodos de pré-tratamento, se alcançam valores superiores a 90% do máximo teórico. Diversas técnicas de pré-processamento têm sido desenvolvidas, principalmente para materiais como a palha de trigo, sabugos de milho e diversos tipos de gramíneas. Técnicas tradicionais incluem tratamento com ácido, explosão de vapor de amônia e tratamento com A PIPOCA ESTOURA porque a água contida no milho é aquecida e, ao vaporizar, arrebenta a solventes orgânicos. Outras mais inova- casca resistente como numa panela de pressão. doras baseiam-se no uso resistente e impermeável. Ao temperatura e pressão penetra na parede fluidos supercríticos, FLUIDOS aquecermos a pipoca na pane- de celular e se aloja entre as fibras e filairradiação com micro-on- SUPERCRÍTICOS São substâncias que se das, delignificação biológi- encontram sob pressão e la, a água em seu interior não mentos da celulose. Na segunda etapa, a ca, oxidação e o tratamen- temperatura acima de seu pode vaporizar-se completa- pressão é diminuída rapidamente de forto com bases ou calcário. ponto crítico, em um estado mente porque está confinada ma que a água, ao vaporizar-se explosique não se pode determiTodas estas técnicas en- nar se é líquido ou gasoso. pela casca que age como as pa- vamente, rompe as estruturas do material redes de uma panela de pres- ligno-celulósico. Nessa forma, a celulose volvem vantagens e dessão. Nessa condição, o amido e a hemicelulose se tornam altamente vantagens que dependem tanto das condições operacionais quanto se transforma numa espécie de massa hidrolisáveis, mesmo sob condições modo tipo de biomassa pré-tratada. Porém, densa e maleável. A pressão continua deradas, o que possibilita aumentos de nenhuma delas é viável para a indústria a aumentar até a ruptura da casca ex- produção com uma degradação mínima brasileira da cana na qual, tipicamente, terna, o que ocorre instantaneamente a de carboidratos componentes e menor centenas de toneladas de biomassa devem uma pressão de cerca de 1MPa (unidade necessidade de energia e de coadjuvantes ser processadas a cada hora. Uma técnica de padrão de pressão e tensão) e tempe- químicos. Um efeito colateral desejável é bastante promissora, em desenvolvimento ratura de aproximadamente 180°C. A a solubilização da lignina obtida, possiem alguns centros de pesquisa no mundo e queda abrupta da pressão faz com que velmente, com a acidificação da água ou no Polo de Energias Renováveis da USP de a água se vaporize, aumentando cerca com a adição de etanol ou outro solvente São Carlos (Polo Terra), baseia-se em uma de mil vezes seu volume e expandindo o orgânico. O resultado desse processo é explosão de vapor. Pode parecer comple- amido na forma de uma espuma aerada uma pasta de fibras de celulose e hemicexo, mas a ideia é muito simples: trata-se de que, ao resfriar-se, solidifica-se e confere lulose expandida, suspensa em solução de imitar o processo de formação da pipoca! a característica crocante à pipoca, tão lignina, cuja separação pode ser feita em apreciada com um bom filme. uma centrífuga industrial. O material sóAssim como para a pipoca, a aeração lido segue para hidrolisação, enquanto a IMITANDO A PIPOCA O milho de pipoca é formado por ami- da celulose é obtida em duas etapas. Na lignina pode ser aproveitada para geração do, água e uma casca externa bastante primeira delas (embebição), água a alta de energia, pois é de difícil fermentação. SCIENTIFIC AMERICAN BRASIL AULA ABERTA

43


14,8 t CO2/h

44 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

BALANÇOS DE UMA USINA típica produzindo etanol de primeira geração e eletricidade ou etanol de segunda geração (etanol celulósico).

ca

tra

ns

p

te or

n

ia av

eo

Embora a hidrólise ácida possua uma ampla base técnica, conquistada durante um extenso histórico de aplicações industriais bem-sucedidas, sua aplicação na produção industrial de etanol celulósico se ressente de avanços tecnológicos que levem a aumentos de eficiência energética e econômica, além de minimizar ou eliminar a geração de resíduos poluentes. Em outras palavras, é muito provável que a hidrólise ácida esteja em seu auge de desenvolvimento tecnológico, restando apenas avanços incrementais a realizar. Além do uso de soluções ácidas, a quebra das ligações glicosídicas pode também ser catalisada com auxílio de coquetéis enzimáticos. A celulólise (ou hidrólise) enzimática é um processo natural empregado por diversas espécies na busca por energia. Ruminantes e alguns tipos de cupins conseguem sacarificar a celulose devido a uma associação simbiótica com bactérias ENZIMAS capazes de produzir Biomoléculas que participam de pro- enzimas celulolíticas, cessos biológicos também chamadas de específicos, procelulases. Da mesma movendo a catálise das reações forma, os fungos são químicas. capazes de produzir enzimas celulolíticas altamente efetivas. O fungo Trichoderma reesei, por exemplo, conhecido também como Hypocrea jecorina, produz uma série de celulases capazes de hidrolisar celulose, desestruturando esse polímero e produzindo uma quantidade grande de açúcares simples.

p.

r ag

l

íco

la

ERIKA ONODERAR

Apesar de ser uma abordagem pro- vante externo, normalmente uma solução missora, diversos problemas devem ser ácida ou um coquetel enzimático. solucionados, sobretudo quanto à sua A celulólise ácida (ou simplesmente aplicação em escala industrial, além da “hidrólise ácida” como é mais conheciviabilidade econômica para o processo. da no jargão da indústria) é um método No caso do bagaço de cana-de-açúcar, tradicional e data de meados dos anos por exemplo, não existe equipamen- 1800, quando foram desenvolvidas as to capaz de realizar essas operações de primeiras técnicas de produção de álembebição e descompressão explosiva a cool a partir de resíduos de madeira. taxas de algumas centenas de toneladas Existem duas versões, dependendo da por hora. Hoje isso é feito em pequenos concentração de ácido. A hidrólise ácireatores de bancada, capazes de pro- da fraca é feita em dois estágios princessar alguns poucos quilogramas de cipais. O primeiro deles é dedicado à biomassa em regime de batelada. Ou- sacarificação da hemicelulose e ocorre tro problema refere-se ao ajuste ideal sob condições amenas, uma diluição de das variáveis de operação (temperatura, 0,7% de ácido sulfúrico a 190ºC, por pressão, tempo de residência exemplo. Nessa fase PENTOSES etc.), condição imprescindível São açúcares simples, obtêm-se pentoses (açúpara a qualidade e eficiência monossacarídeos, com 5 cares com cinco átomos energética do pré-tratamento. carbonos, como a ribose e de carbono) porém, se a desoxirribose. Formam as Um tempo excessivo a altas estruturas dos ácidos o tempo exceder alguns temperaturas tende a degra- nucleicos, substâncias res- minutos, elas se degradar não somente as estruturas ponsáveis por funções darão ainda mais geranimportantes nas células. ligno-celulósicas, mas também São açúcares isômeros e de do vários subprodutos as próprias ligações glicosídi- fórmula molecular C5H10O5. inibidores do processo cas, gerando subprodutos de de fermentação, entre difícil fermentação, além de tornar o os quais o furfural (C5H4O2). processo como um todo mais lento e, As frações mais recalcitrantes desse portanto, consumir mais energia. Em processo são hidrolisadas em um secontraposição, temperaturas e pressões gundo estágio mais severo, tipicameninsuficientes resultam em desagregação te a 215ºC sob ácido sulfúrico a 0,4% incompleta com consequente HEXOSES durante cerca de três diminuição da quantidade to- São açúcares simples, minutos, gerando prinmonossacarídeos, com 6 tal de celulose sacarificada. cipalmente hexoses. Já carbonos, como a glicose Essas questões jamais foram e a galactose. Todos são a hidrólise ácida forte abordadas de maneira satisfa- açúcares isômeros e de produz uma alta contória e completa com foco na fórmula molecular C6H- centração de açúcares O . A diferença entre as 12 6 produção industrial de etanol a substâncias simples (perto de 90%) está na posipartir da biomassa da cana-de- ção de alguns átomos e na e é altamente adaptável açúcar e, portanto, constituem forma de arranjo espacial a diferentes fontes de das moléculas. importantes desafios tecnológibiomassa, além de gecos e científicos ainda em aberto. rar poucos subprodutos Uma vez que as macroestruturas inibidores da fermentação. O calcaligno-celulósicas tenham sido desagre- nhar de aquiles da hidrólise ácida está gadas no pré-tratamento é necessário ain- na necessidade de neutralizar e separar da decompor a celulose e a hemicelulose o catalisador ácido e subprodutos, imem açúcares mais simples, que possam ser plicando perdas inevitáveis de açúcares eficientemente fermentados. A quebra das fermentáveis, e na contaminação do ligações glicosídicas é feita por uma rea- processo de fermentação por composção de hidrólise, ou seja, pela reação com tos inibidores. Outro problema signifimoléculas de água. No caso específico da cativo é a necessidade de materiais recelulose esta reação é chamada de celuló- sistentes à corrosão, como aço inox ou lise ([C6H10O5]n + nH2O g nC6H12O6) e, recobrimentos cerâmicos especiais, o para que ocorra de maneira eficiente, deve que encarece o custo de fabricação dos ser catalisada pela ação de algum coadju- equipamentos necessários.

s


1,8 t CO2/h Etanol primeira geração 45 m3/h

Cana-de-açúcar

ad

ub

ã aç

o

prétratamento

500 tc/h Nutrientes 4 t/h

Vinhoto

us

ina

hidrólise

fermentação

ou

530 m3/h

geração 150 t/h

Etanol segunda geração 42 m3/h

Eletricidade 50 MW

Diesel equivalente 1,2 m3/h

Apesar de conhecida há um A fermentação da bio- pH massa sacarificada por meio Mede a acidez de bom tempo, a aplicação em larga da celulólise enzimática é uma solução. Valores escala da celulólise enzimática é que 7 indibastante recente (pouco mais de bastante facilitada, sobretu- menores cam soluções ácido porque se trata de uma das, maiores que 7, dez anos) e existem muitas possequência de reações nor- soluções alcalinas e sibilidades a ser exploradas. Não a 7, soluções somente a ação enzimática sobre malmente associada ao me- iguais neutras. As enzimas tabolismo dos seres vivos. É associadas à ação a celulose é pouco conhecida, por essa razão que as con- sobre a celulose como coquetéis enzimáticos esem um meio pecíficos para a cana-de-açúcar dições de temperatura e pH existem com pH variando não foram ainda desenvolvidos. ideais para a produção de en- entre 4,6 e 5,0. Isso pode ser alcançado a partir zimas ou para sua ação efetiva sobre a celulose são bastante amenas, da busca por novas enzimas, principalevitando assim a formação de compostos mente a partir de estudos sobre a ação de inibidores da celulólise ou indigestos para fungos e bactérias não testados na degraos microrganismos da fermentação. Con- dação do bagaço de cana, bem como pela sequentemente, os equipamentos tendem sua modificação genética. Ou seja, a bioa ser mais simples e mais baratos (não há logia molecular é uma linha bastante pronecessidade de proteção contra corrosão missora, assim como o desenvolvimento ou de suportar altas temperaturas) e, igual- de biorreatores que incorporem novas mente, a produção de resíduos nocivos ao tecnologias com base nas chamadas nanociências (nanobiossensores, nanomateambiente é mínima e de fácil tratamento. Mas, no atual estágio tecnológico, riais etc.), ou ainda, baseadas em técnicas a celulólise enzimática não é capaz de de inteligência artificial para o controle do produzir altas concentrações de açúcares processo biológico. fermentáveis e, assim, é inadequada para aplicação industrial em larga escala, so- DIVERSIDADE DE FONTES bretudo para a produção de etanol celuló- Por fim, não somente a cana-de-açúcar, sico. Além disso, considerando condições mas também outras espécies podem detípicas de uma usina de cana brasileira, a sempenhar o papel de fontes primárias de celulólise de biomassa a centenas de tone- celulose, dependendo das condições climáladas por hora implica uma taxa de pro- ticas e de solo de cada região. É o caso do dução de enzimas muito acima da capaci- eucalipto, que se adapta muito bem a terdade dos biorreatores atuais. No entanto, renos acidentados, ou do capim-elefante, longe de serem desanimadores, esses pro- bastante produtivo em climas mais quenblemas devem ser vistos como duas gran- tes e secos. A celulose pode ser vista como des frentes de pesquisa e desenvolvimento. uma formidável reserva de matéria-prima,

tanto para a fabricação de combustíveis, quanto para a produção de insumos químicos (plásticos, tintas, solventes etc.). Para colocar as coisas em perspectiva, enquanto o etanol de primeira geração pode ser comparado a extrair petróleo de um poço em terra, cujo know-how é dominado há séculos, o etanol celulósico se compara às reservas recentemente descobertas pela Petrobras na camada pré-sal. A exploração de ambos demandará avanços científicos e tecnológicos significativos, além do esforço despendido por uma geração. n OS AUTORES Paulo Seleghim Jr. é graduado em engenharia mecânica pela Escola Politécnica da Universidade de São Paulo (1987) e doutorando em mecânica dos fluidos, pelo Comissariat à L’Energie Atomique (1996). Atualmente é professor titular da Universidade de São Paulo, desenvolvendo projetos de pesquisa na área de Energias Renováveis e Escoamentos Multifásicos Industriais. Igor Polikarpov é graduado em física pela Universidade da Bielo-Rússia, República da Bielo-Rússia (1987), doutor pela mesma Universidade (1989), pós-doutor pelo Max Planck Gesellschaft, Alemanha (1991-1993) e Universidade de Edimburgo, Grã-Bretanha (1993-1995). Atualmente é professor titular da Universidade de São Paulo, desenvolvendo pesquisa na área de biologia molecular estrutural, engenharia de proteínas e biocombustíveis de segunda geração. PARA CONHECER MAIS Bioenergia no estado de São Paulo: situação atual, perspectivas, barreiras e propostas. José Goldemberg, Francisco E. B. Nigro e Suani T. Coelho. Imprensa Oficial do Estado de São Paulo, 2008. Energy systems engineering: evaluation and implementation. Francis M. Vanek e Louis D. Albright. McGraw-Hill, 2008. SCIENTIFIC AMERICAN BRASIL AULA ABERTA

45


MATEMÁTICA

A origem da computação Era da informação começou quando se percebeu que máquinas poderiam imitar a mente humana

D

e acordo com a história tradicional, a computação evoluiu rapidamente, em curto período de tempo. Os primeiros computadores são as máquinas gigantes instaladas em laboratórios na época da Segunda Guerra Mundial. Os microchips os reduzem a desktops, a LEI DE MOORE Na década de 60, Gordon Lei de Moore prevê o quanto serão Moore, cofundador da potentes, e a Microsoft capitaliza o Intel, previu que o poder de computação dos pro- software. Por fim, surgem aparelhos cessadores dobraria a pequenos e baratos capazes de negocada 18 meses. Tal previ- ciar ações e transmitir vídeos ao resão permanece válida. dor do mundo. Essa é uma maneira de abordar a história da computação – a história da eletrônica do estado sólido dos últimos 60 anos. Mas a computação existia muito antes do transistor. Astrônomos da Antiguidade desenvolveram maneiras de prever o movimento de corpos celestes. Os gregos deduziram a forma e o tamanho da Terra. Os impostos eram somados; as distâncias, mapeadas. De fato, computar sempre foi uma busca da humanidade. A aritmética, assim como ler ou escrever, era uma habilidade que auxiliava o homem a interpretar o mundo.

46 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

A era da computação nasceu quando o homem procurou ultrapassar os limites práticos da aritmética. Máquinas de somar e caixas registradoras surgiram primeiro, mas era igualmente crítica a busca pela organização de computações matemáticas usando o que hoje chamamos de “programas”. A ideia de um programa surgiu nos anos 1830, um século antes do período tradicionalmente atribuído ao nascimento do computador. Posteriormente, os computadores eletrônicos modernos que surgiram durante a Segunda Guerra Mundial deram origem à noção de um computador universal – uma máquina capaz de processar qualquer tipo de informação, inclusive manipular os próprios programas. Esses são os computadores que movem o mundo atual. E embora pareça que a tecnologia da computação tenha amadurecido a ponto de se tornar onipresente e aparentemente ilimitada, pesquisadores buscam inspiração na mente, em sistemas biológicos e na física quântica para criar tipos completamente novos de máquinas.

HOLLY LINDEM (ilustração fotográfica) ; GENE BURKHARDT (edição de imagem)

POR MARTIN CAMPBELL-KELLY


SCIENTIFIC AMERICAN BRASIL AULA ABERTA

47


A MÁQUINA DIFERENCIAL fazerem a conversão, a agência cartográEm 1790, logo depois do início da Re- fica do Exército francês encomendou um volução Francesa, Napoleão Bonaparte novo conjunto de tabelas matemáticas. decidiu que a república precisava de uma No século 18, porém, as computanova série de mapas para estabelecer um ções eram feitas à mão. Um “chão de sistema justo de tribufábrica” de 60 a 80 comtação imobiliária. Tam- TABLES DU CADASTRE putadores humanos somabém exigiu a mudança O projeto francês tinha três eta- va e subtraía números para na primeira, um grupo de do velho sistema impe- pas: preencher linha após linha matemáticos discutia os procerial de medidas para o dimentos que seriam utiliza- das tabelas para o projeto novo sistema métrico. dos; na segunda, outro peque- de mapeamento Tables du grupo distribuía tarefas e Para auxiliar os enge- no Cadastre. Era um trabalho coletava os resultados; por fim, nheiros e matemáticos a na terceira etapa um grupo de simples, não requerendo ha-

bilidades especiais além de matemática básica e alfabetização. Na verdade, esses funcionários eram na maioria cabeleireiros desempregados – quem tivesse corte de cabelo aristocrático poderia perder a cabeça na França revolucionária. O projeto levou cerca de dez anos para ser completado, mas, no fim, a república, abalada pela guerra, não tinha mais fundos para publicar o trabalho. O manuscrito ficou esquecido na Académie des Sciences por décadas. Então, em 1819, um jovem matemático

60 a 80 pessoas efetuava as computações, utilizando basicamente adição e subtração.

Engrenagens da mudança: Charles Babbage produziu um protótipo funcional de sua Máquina Diferencial (à esquerda e no detalhe acima) em 1832. Embora tenha demonstrado a viabilidade de sua ideia, era muito pequeno para ter uso prático. A primeira versão funcional completa da Máquina Diferencial seria construída apenas em 1991, 159 anos mais tarde, pelo Museu de Ciências de Londres, que seguiu as anotações detalhadas do projeto de Babbage.

48 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

SCIENCE MUSEUM/SSPL (detalhe) CORTESIA DO SCIENCE MUSEUM (Máquina Diferencial)

A MÁQUINA DIFERENCIAL


CORTESIA DO CURADOR DE FOTOGRAFIAS ASTRONÔMICAS DO HARVARD COLLEGE OBSERVATORY (computadores humanos) ; CORTESIA DE MARTIN CAMPBELL-KELLY (autor)

britânico chamado Charles Babbage descobriu-o em uma visita a Paris. Babbage tinha 28 anos na época; três anos antes ele havia sido eleito para a Royal Society, a organização científica mais importante da Grã-Bretanha. Ele também conhecia bem o mundo dos computadores humanos – por várias vezes supervisionara pessoalmente a construção de tabelas astronômicas e atuariais. Quando retornou à Inglaterra, Babbage decidiu reproduzir o projeto francês, não mais usando computadores humanos, mas com o auxílio de máquinas. A Inglaterra estava no auge da Revolução Industrial. Trabalhos geralmente realizados por humanos ou animais estavam perdendo em eficiência para as máquinas. Babbage vislumbrou o potencial da mecanização e percebeu que poderia substituir não apenas o trabalho braçal, mas também o mental. Ele propôs a construção de sua máquina de calcular em 1822 e conseguiu financiamento do governo em 1824. Durante a década seguinte Babbage mergulhou no universo da indústria, à procura das melhores tecnologias para construir seu engenho. O ano de 1832 foi o annus mirabilis para Babbage. Não apenas produziu um modelo funcional de sua máquina calculadora (batizada de Máquina Diferencial), mas também publicou sua obra clássica On the economy of machinery and manufactures (Sobre a economia da maquinaria e da manufatura), estabelecendo sua reputação de maior economista industrial do mundo. Todos os sábados à noite ele promovia reuniões sociais em sua casa na Dorset Street, em Londres, frequentadas pela nata da sociedade. Nesses encontros a Máquina Diferencial foi exposta, tornando-se o centro das atenções. Um ano depois Babbage abandonou a Máquina Diferencial para dar lugar a um projeto mais ousado – a Máquina Analítica. Enquanto a Máquina Diferencial limitava-se à tarefa de fazer tabelas, a Máquina Analítica seria capaz de realizar qualquer cálculo matemático. Como um computador moderno, teria um processador para os cálculos aritméticos (o “moinho”), memória para registrar os

TRABALHO EM EQUIPE As mulherescomputadoras do Observatório de Harvard, aqui em foto de meados de 1890, examinaram centenas de milhares de placas fotográficas entre os anos 1880 e 1920, classificando estrelas com base na cor, posição e brilho.

números (o “armazém”), e a capacidade de alterar sua função através de comandos do usuário, no caso, cartões perfurados. Em resumo, era um computador projetado com tecnologia vitoriana. A decisão de Babbage de abandonar a inacabada Máquina Diferencial não foi bem recebida, porém, e o governo recusou-se a fornecer verbas adicionais. Inconformado, ele produziu milhares de páginas de anotações detalhadas e desenhos da máquina na esperança de que o governo algum dia financiasse sua construção. Mas foi apenas nos anos 70, em plena era da informação, que pesquisadores estudaram esses artigos pela primeira vez. A Máquina Analítica era, como um dos pesquisadores observou, quase como olhar para o projeto de um computador de outro planeta. A IDADE DAS TREVAS A visão de Babbage era, em essência, a da computação digital. Assim como nos equipamentos atuais, suas máquinas manipulam os números (ou dígitos) de acordo com um conjunto de instruções e produzem um resultado numérico preciso. No entanto, após o fracasso de Babbage, a computação entrou no que o matemático inglês L. J. Comrie chamou de Idade das Trevas da computação digital – período que durou até a Segunda EQUAÇÕES DIFERENCIAIS ORDINÁRIAS São equações cujas incógnitas são funções. Permitem a compreensão de fenômenos nos quais a variação de uma grandeza afeta outras grandezas relacionadas. Como exemplo, problemas de física em que a resistência do ar deve ser considerada são resolvidos a partir de equações diferenciais.

Guerra Mundial. Nessa fase, a computação por máquinas se fazia basicamente usando os chamados computadores analógicos. Esses aparelhos modelam um sistema utilizando um análogo mecânico. Suponha que, por exemplo, alguém queira prever a ocorrência de um eclipse solar. KEPLER Para fazer isso digi- No começo do talmente, é necessá- século 15, o alemão Johannes rio resolver as leis Kepler estabeledo movimento de ceu um conjunto Kepler. Antes dos de três leis relativas ao movimento computadores di- dos planetas, que gitais, a única ma- foram ampliadas neira prática de fa- por Newton tendo como recurso o zê-lo era por cálcu- Cálculo Diferencial los manuais usan- e Integral. do computadores humanos. (Durante as décadas de 1890 a 1940 o Observatório Harvard costumava empregar apenas equipes de mulheres-computadoras.) Também seria possível criar um computador analógico, um modelo do Sistema Solar feito de engrenagens e eixos que avançaria no tempo (ver quadro na pág. ao lado). Antes da Segunda Guerra Mundial, o computador analógico mais importante era o Analisador Diferencial, desenvolvido por Vannevar Bush no Massachusetts Institute of Technology, em 1929. Na época, os Estados Unidos estavam fazendo grandes investimentos em abastecimento elétrico rural. Esses problemas poderiam ser codificados em equações diferenciais ordinárias, mas suas resoluções SCIENTIFIC AMERICAN BRASIL AULA ABERTA

49


OBSERVAÇÃO ESTELAR

Exemplo de computador analógico, o projetor de um planetário produz um análogo físico do movimento das estrelas e planetas. O planetário Adler, em Chicago, instalou o primeiro exemplar americano em 1930 (abaixo). Embora os projetores não sejam precisos o suficiente para computação na prática, os planetários continuam se aperfeiçoando. Os projetores mais modernos podem ser vistos no planetário Hayden em Nova York (acima).

CORTESIA DO ADLER PLANETARIUM (projetor Zeiss) ; CORTESIA DE D. FINNIN AMERICAN MUSEUM OF NATURAL HISTORY (detalhe)

O Computador Analógico

50 SCIENTIFIC AMERICAN BRASIL AULA ABERTA


BETTMANN/CORBIS

eram muito trabalhosas. O Analisador Diferencial permitia chegar a soluções aproximadas sem qualquer processamento numérico. Era fisicamente grande – ocupando todo um laboratório – e parecia uma daquelas engenhocas complexas de desenhos animados, cheias de engrenagens e eixos rotativos, mas que realizavam tarefas relativamente simples. Para “programar” a máquina, os pesquisadores conectavam vários componentes ao equipamento usando chaves de fenda, martelos e chaves inglesas. Embora fosse trabalhoso prepará-lo, uma vez pronto, o dispositivo conseguia resolver em minutos equações que levariam vários dias para ser calculadas à mão. Uma dúzia de réplicas da máquina foram construídas nos Estados Unidos e Inglaterra. Uma dessas réplicas pertencia ao Campo de Provas de Aberdeen, do Exército americano, em Maryland, setor responsável pelo preparo de armas para combate. Para que a artilharia mirasse em um alvo a uma distância conhecida, os soldados precisavam ajustar os ângulos vertical e horizontal (altura e azimute) do cano, de modo que o projétil disparado seguisse a trajetória parabólica desejada – elevando-se em direção ao céu antes de cair sobre o alvo. Eles selecionavam os ângulos a partir de uma tabela de tiro que continha diversas entradas correspondentes a diferentes distâncias de alvo e condições operacionais. Cada entrada da tabela de tiro dependia da integração de uma equação diferencial ordinária. Um computador humano levaria de dois a três dias para fazer cada cálculo à mão. O Analisador Diferencial, em comparação, precisava de apenas 20 minutos. MUDANÇA COMPLETA Em 7 de dezembro de 1941, as forças japonesas atacaram a base da Marinha americana em Pearl Harbor. Os Estados Unidos entraram na guerra. Com a mobilização, o Exército precisava cada vez mais de tabelas, cada uma contendo cerca de 3.000 entradas. Mesmo com o Analisador Di-

O Computador Digital

POTÊNCIA MÁXIMA: A computação entrou na era da eletrônica com o Eniac, inventado por J. Presper Eckert e John Mauchly, da Moore School of Electrical Engineering da University of Pennsylvania. O Eniac usava válvulas eletrônicas para armazenar números e consumia 150 quilowatts de potência, o equivalente a mais de mil PCs modernos.

ferencial, o acúmulo de cálculos em Aberdeen estava aumentando. A 130 km de Aberdeen, a Moore School of Electrical Engineering, da University of Pennsylvania, tinha seu próprio analisador diferencial. Na primavera de 1942 um instrutor da escola de 35 anos chamado John W. Mauchly teve uma ideia de como acelerar os cálculos: construir um “computor eletrônico”, que usaria válvulas eletrônicas no lugar de componentes mecânicos. Mauchly, mais voltado à teoria, encontrou seu complemento em um jovem e ativo pesquisador da escola chamado J. Presper (“Pres”) Eckert, que já mostrava lampejos de genialidade em engenharia. Um ano depois de Mauchly fazer sua proposta original, e após sucessivos atrasos acidentais e burocráticos, o projeto finalmente deslanchou graças ao tenente Herman Goldstine, Ph.D. em matemática de 30 anos, da University of Chicago, e contato técnico entre Aberdeen e a Moore School. Em poucos dias Goldstine conseguiu a

aprovação para o projeto. A construção do Eniac – sigla para Electronic Numerical Integrator and Computer – começou em 9 de abril de 1943. Era o aniversário de 23 anos de Eckert. Muitos engenheiros duvidaram do sucesso do Eniac. Sabia-se que a vida útil de uma válvula eletrônica era de cerca de 3 mil horas, e o primeiro projeto do Eniac utilizava 5 mil delas. Dessa maneira, a máquina não funcionaria por mais de cinco minutos sem que uma válvula queimasse, desativando-a. Eckert, porém, estava ciente de que as válvulas falhavam por estresse causado por ciclos de liga/desliga. Ele sabia que, por essa razão, estações de rádio nunca desligavam suas válvulas de transmissão. E se as válvulas operassem significativamente abaixo de sua tensão nominal durariam mais ainda. (O número total de válvulas aumentou para 18 mil quando a máquina ficou completa.) Eckert e sua equipe completaram o Eniac em dois anos e meio. A máquina pronta foi uma grande façanha da engenharia, um gigante de 27 toneladas que SCIENTIFIC AMERICAN BRASIL AULA ABERTA

51


O Computador de Programa Armazenado

TROCA DE PROGRAMA

O primeiro computador de programa armazenado foi o Edsac, construído na University of Cambridge por Maurice Wilkes e William Renwick em 1949 (acima). Tentativas iniciais de criar um sistema simbólico de programação (abaixo) abriram caminhos para simplificar essa atividade.

52 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

O computador de programa armazenado formou a base da tecnologia da computação desde os anos 50. Que alternativas poderiam surgir no futuro? QUÂNTICO: O aclamado computador quântico explora a capacidade de uma partícula estar em muitos estados ao mesmo tempo. Computadores quânticos operam em todos esses estados simultaneamente. REDES NEURAIS: Esses sistemas são formados por vários nós de processamento simples que se conectam uns aos outros de maneira específica. O sistema como um todo apresenta comportamento global complexo. MATÉRIA VIVA: Computadores baseados em filamentos de DNA ou RNA processam dados codificados em material genético.

POPPERFOTO/GETTY IMAGES (EDSAC) ; FONTE: “THE EDSAC SIMULATOR PROGRAM DOCUMENTATION,” PELO DEPARTMENT OF COMPUTER SCIENCE, UNIVERSITY OF WARWICK (detalhe)

O FUTURO DA ARQUITETURA DO COMPUTADOR


CORTESIA DE LAKESIDE SCHOOL

consumia 150 quilowatts de energia. Podia fazer 5 mil somas por segundo e calcular uma trajetória mais rápido do que o tempo que um projétil leva para atingir seu alvo. Além disso, é um ótimo exemplo de como o acaso tem um papel importante no campo das invenções: embora a Moore School não fosse um centro de pesquisa em computação de primeira linha, o projeto aconteceu porque ela era o lugar certo, na hora certa e com as pessoas certas. Mesmo assim, o Eniac ficou pronto apenas em 1945, tarde demais para auxiliar na guerra. Ele também tinha capacidade limitada. Podia armazenar no máximo 20 números de uma só vez. A programação da máquina levava dias e demandava a manipulação de um emaranhado de cabos que parecia o interior de uma central telefônica. Além do mais, o Eniac foi projetado para resolver equações diferenciais ordinárias. Alguns desafios – como os cálculos necessários para o Projeto Manhattan – exigiam a resolução de equações diferenciais parciais. John von Neumann, consultor do Projeto Manhattan, ouviu falar sobre o Eniac em uma visita a Aberdeen no verão de 1944. Nascido em 1903 de uma rica família húngara de banqueiros, Von Neumann era um prodígio matemático. Aos 23 anos havia se tornado o Privatdozent (mais ou menos o equivalente a um professor-associado) mais jovem da história da Universidade de Berlim. Em 1930 emigrou para os Estados Unidos, onde, juntamente com Albert Einstein e Kurt Gödel, foi um dos primeiros professores do Institute for Advanced Study em Princeton, Nova Jersey. Naturalizou-se cidadão americano em 1937. Von Neumann logo percebeu o potencial da computação eletrônica e, alguns meses após sua visita a Aberdeen, começou a reunir-se com Eckert, Mauchly, Goldstine e Arthur Burks – outro professor da Moore School – para desenvolver o projeto de uma nova máquina, o Electronic Discrete Variable Automatic Computer, ou Edvac. O Edvac era muito mais avançado do que o Eniac. Von Neumann introduziu as ideias e a nomenclatura de Warren McCullough e Walter Pitts, neurocientis-

tas que tinham desenvolvido a teoria das operações lógicas do cérebro (daí vem o uso do termo “memória” em computação). Como Von Neumann, McCullough e Pitts ALAN TURING foram influencia- A Máquina de Turing dos por estudos estabeleceu, em teóricos do mate- 1936, conceitos que permitiram a arquimático britânico tetura dos computaAlan Turing, que dores posteriormenprovou no final te implementada. Apesar de ser um dos anos 30 ser modelo abstrato, possível usar uma aplica-se a qualquer máquina simples computador digital. para executar uma imensa variedade de tarefas complexas. Nesse período ocorreu uma mudança coletiva de percepção do computador, passando de instrumento matemático a uma máquina universal de processamento de informação. Von Neumann imaginou a máquina com cinco partes principais: a memória armazenaria não apenas dados numéricos, mas também as instruções de operação. Uma unidade aritmética realizaria os cálculos. Um “órgão” de

entrada permitiria a transferência de programas e dados para a memória, e um órgão de saída armazenaria os resultados da computação. Finalmente, uma unidade de controle coordenaria as operações. Essa disposição, ou arquitetura, permitiria trocar o programa do computador sem alterar a estrutura física da máquina. Além do mais, um programa poderia manipular as próprias instruções. Essa característica não apenas ajudaria Von Neumann a resolver suas equações diferenciais parciais, mas também geraria uma grande flexibilidade, que é a base da ciência da computação. Em junho de 1945 Von Neumann escreveu seu artigo clássico “Primeiro esboço de relatório sobre o Edvac”, em nome do grupo. Apesar de ser um texto inacabado, rapidamente se difundiu entre os entendidos de computação, o que gerou duas consequências. Primeiro, nunca houve uma segunda versão. E, segundo, Von Neumann acabou ficando com a maior parte do crédito.

BRINCADEIRA DE CRIANÇA: Linguagens simples, como o Basic, popularizaram a programação. O jovem Paul Allen (sentado) e seu amigo Bill Gates trabalhando em um terminal de teletipo conectado por uma linha telefônica a um computador mainframe que ocupava uma sala inteira. SCIENTIFIC AMERICAN BRASIL AULA ABERTA

53


tica (ver quadro na pág. 52). Em suas EVOLUÇÃO DAS MÁQUINAS Os 60 anos seguintes de difusão do com- memórias, Wilkes lembrou-se pesaroputador na sociedade compõem uma samente do momento em 1949 quando longa história a ser contada em outra “me dei conta de que boa parte do resto ocasião. Talvez o desenvolvimento mais da minha vida seria gasta procurando notável tenha sido que o computador – erros nos meus próprios programas”. Ele e outros em Cambridge desenoriginalmente projetado para cálculos matemáticos – acabou se tornando infini- volveram um método de escrever instamente adaptável a diversas aplicações, truções de computador de forma simdo processamento de dados de empresas bólica, o que facilitava todo o trabalho à computação pessoal e à construção de e diminuía o risco de erros. O computador pegaria essa linguagem simbólica uma rede global de informação. Podemos verificar que o desenvolvi- e a transformaria em binária. A IBM mento do computador ocorreu em três introduziu a linguagem de computação áreas principais – hardware, software e Fortran em 1957, que simplificou muiarquitetura. Os avanços de hardware nos to a criação de programas científicos e últimos 60 anos são lendários. As válvu- matemáticos. No Dartmouth College, las eletrônicas volumosas foram substitu- em 1964, o educador John G. Kemeny ídas no final dos anos 50 por transistores e o cientista da computação Thomas E. “discretos” – isto é, transistores indi- Kurtz inventaram o Basic, uma linguavidualmente soldados em seus devidos gem de programação simples, mas polugares. Em meados dos anos 60 os mi- derosa, com o objetivo de democratizar crocircuitos eram compostos por vários a computação e trazê-la a toda a poputransistores – que passaram para cente- lação universitária. Com o Basic, mesnas e, depois, milhares de unidades – em mo crianças em idade escolar – o jovem um chip de silício. O microprocessador, Bill Gates, entre elas – poderiam comedesenvolvido no início dos anos 70, con- çar a escrever os próprios programas. Por outro lado, a arquitetura do tinha uma unidade completa de processamento em um chip. O microprocessador computador – isto é, o arranjo lógico deu origem ao PC e agora controla dis- de subsistemas que compõem um compositivos tão variados quanto sistemas de putador – praticamente não evoluiu. Quase todas as máquinas em uso hoje sprinklers e mísseis balísticos. Os desafios de software foram mais em dia compartilham a mesma arquitesutis. Em 1947 e 1948 Von Newmann tura básica do computador de prograe Goldstine produziram uma série de ma armazenado de 1945. A situação documentos chamada “Planejamento parece a dos automóveis movidos a gae problemas de codificação de um ins- solina – muitos aprimoramentos técnitrumento de computação eletrônica”. cos e melhorias de eficiência ocorreram Nesses artigos, registraram dezenas de em ambos os casos ao longo dos anos, rotinas de computação matemática na mas a concepção básica é essencialexpectativa de que algum “codificador” mente a mesma. E embora possa ser com pouca experiência pudesse conver- possível projetar um equipamento radicalmente melhor, ambos tê-las em programas funchegaram a um ponto que cionais. Isso não ocorreu. PROGRAMAS O processo de escrever pro- Escrever programas, basica- os historiadores da tecnogramas e fazê-los funcionar mente, consiste em descrever logia chamam de “casos (por exemplo, o encerrados”. Investimenera extremamente difícil. processos cálculo das primeiras casas O primeiro a descobrir decimais da raiz quadrada de tos ao longo das décadas isso foi Maurice Wilkes, 2) em uma linguagem de pro- produziram ganhos tão que remete a opealtos que ninguém aprecientista de computação da gramação rações aritméticas simples. University of Cambridge Uma das dificuldades é a sentou uma razão conque criou o Edsac, o pri- interpretação literal do que é vincente para investir em qualquer erro, por uma alternativa. meiro computador capaz escrito: mais insignificante que pareAinda assim há múlde armazenar os próprios ça, acarretará problemas na tiplas possibilidades de programas de maneira prá- execução do programa. 54 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

uma evolução radical. Nos anos 80 surgiu grande interesse nas chamadas máquinas maciçamente paralelas, que continham milhares de elementos de computação operando simultaneamente. Essa arquitetura básica é ainda usada em tarefas de computação intensa, como previsão do tempo e pesquisa de armas nucleares. Cientistas da computação também vasculharam o cérebro buscando inspiração. Sabemos agora que a mente contém centros de processamento especializados para diferentes tarefas, como reconhecimento facial e compreensão de fala. Os cientistas estão aproveitando algumas dessas ideias em “redes neurais”, para aplicações como identificação de placas veiculares e reconhecimento de íris. Assuntos de pesquisa mais extravagantes incluem a construção de computadores a partir de matéria viva como o DNA (ver “Computadores de DNA ganham vida”, Scientific American Brasil, junho de 2006, edição 49 e no site da Sciam) e computadores que tiram proveito das esquisitices do mundo quântico (ver “Os limites do computador quântico”, Scientific American Brasil, abril de 2008, edição 71 e no site da SCIAM). Ninguém sabe como serão os computadores daqui a 50 anos. Talvez suas habilidades ultrapassem até mesmo a capacidade das mentes que os criarem. n

O AUTOR Martin Campbell-Kelly é professor do departamento de ciência da computação da University of Warwick, na Inglaterra, onde se especializou em história da computação. Ele é o autor de Computer: a history of the information machine (junto com William Aspray) e de From airline reservations to sonic the hedgehog: a history of the software industry. Ele é o editor de The Works of Charles Babbage. PARA CONHECER MAIS The difference engine: Charles Babbage and the quest to build the first computer. Doron Swade. Penguin, 2002. Computer: a history of the information machine. Martin Campbell-Kelly e William Aspray. Westview Press, 2004. The Modern History of Computing. Stanford encyclopedia of philosophy. http://plato.stanford. edu/entries/ computing-history


PROFESS R

PARA O Física Biologia Matemática Geografia Química

ROTEIROS ELABORADOS POR PROFESSORES ESPECIALISTAS COM SUGESTÕES DE ATIVIDADES PARA SALA DE AULA

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

55


PARA O PROFESSOR FÍSICA

Com Newton e Arquimedes na garupa

PROPOSTAS PEDAGÓGICAS CONTEXTUALIZAÇÃO

E

mbora possa parecer simples, o equilíbrio de motos e bicicletas não é trivial. A rigor, a dinâmica do movimento circular, embora muito importante e com várias aplicações no cotidiano, não faz parte da maioria dos currículos de física nas escolas de ensino médio do país. No entanto, o

PROPOSTAS DE ATIVIDADES

1

Força centrípeta Explique aos alunos que um corpo em movimento circular, mesmo que a velocidade em módulo seja constante, a direção do vetor velocidade muda constantemente e assim há uma aceleração que corresponde a essa variação vetorial: a aceleração centrípeta (acp). De acordo com os princípios da dinâmica, a variação da direção da velocidade é causada por uma força chamada centrípeta (Fcp ), mediada pela massa do corpo, como descrito pela segunda lei de Newton, que podemos representar por Fcp = m.acp (m é a massa do corpo sobre o qual

artigo aborda vários aspectos interessantes desse tipo de movimento e possibilita a discussão do conceito de equilíbrio, entre outros. A partir dele é possível discutir as forças centrípeta e centrífuga e as condições de equilíbrio de uma motocicleta, entre outros.

essa força atua). A questão que se impõe é: como determinar essa aceleração, o que pode ser feito com experimento sugerido a seguir. EXPERIMENTO Material necessário: um pedaço de barbante (1,2 m); um tubo de caneta; arruelas; clipe; rolha; cronômetro; régua. Monte o arranjo mostrado na figura 1. O objetivo é investigar a relação entre a frequência de rotação (velocidade angular), o raio de rotação e a força centrípeta Fixe o raio de giro (R) da rolha em 0,40 m (prenda o clipe no fio, de modo

que quando este tocar na parte inferior do tubo de caneta tenhamos o raio de giro desejado – no caso, 40 cm) e amarre 3 arruelas na parte inferior do fio. Com o braço estendido para cima e segurando o conjunto pelo tubo da caneta, faça com que a rolha passe a girar acima de sua cabeça. Com o cronômetro, marque um tempo de 10 s e conte o número de voltas que a rolha realiza, de modo a manter as rolhas suspensas e o clipe bem próximo do tubo, mas sem encostar nele. O número de voltas dividido por dez dá a frequência de rotação da rolha. Repita esse proce-

COMPETÊNCIAS E HABILIDADES SEGUNDO A MATRIZ DE REFERÊNCIA DO ENEM Matemática e suas Tecnologias n Competência de área 1 H3 – Resolver situação-problema envolvendo conhecimentos numéricos. n Competência de área 3 H12 – Resolver situação-problema que envolva medidas de grandeza. n Competência de área 4 H15 – Identificar a relação de dependência entre grandezas.H16 Resolver situação-problema envolvendo a variação de grandezas, direta ou inversamente proporcionais. n Competência de área 5 H19 – Identificar representações algébricas que expressem a relação entre grandezas. H20 – Interpretar gráfico cartesiano que represente relações entre grandezas. n Competência de área 6 H24 – Utilizar informações expressas em gráficos ou tabelas para fazer inferências. 56 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

Ciências da Natureza e suas Tecnologias n Competência de área 1 H3 – Confrontar interpretações científicas com interpretações baseadas no senso comum, ao longo do tempo ou em diferentes culturas. n Competência de área 5 H17 – Relacionar informações apresentadas em diferentes formas de linguagem e representação usadas nas ciências físicas, químicas ou biológicas, como texto discursivo, gráficos, tabelas, relações matemáticas ou linguagem simbólica. n Competência de área 6 H20 – Caracterizar causas ou efeitos dos movimentos de partículas, substâncias, objetos ou corpos celestes. CONTEÚDOS Força centrípeta e centrífuga; equilíbrio dinâmico; tomada e registro de dados; análise de dados; elaboração e interpretação de gráficos; leis de Newton; movimento circular.


Figura 1

ERIKA ONODERA (figura 1)

dimento, acrescentando arruelas a fim de aumentar o peso pendurado no fio. Anote os resultados em uma tabela (indicada abaixo). Comente que a força que mantém a rolha em sua trajetória curva é a resultante centrípeta, nesse caso, desempenhada pela força de tração no fio, que por sua vez é igual ao peso das arruelas. Faça uma análise qualitativa dos dados. É possível estabelecer alguma relação entre essa força e a frequência de rotação? E com o raio de curvatura? Esses dados permitem perceber a relação direta entre a frequência e o número de arruelas. E em relação ao raio, como é essa relação? Para analisar os dados, construa em um mesmo sistema de eixos o gráfico do número de arruelas em função da frequência de rotação e trace uma linha de tendência para esses pontos. Se utilizar uma planilha eletrônica, como o Excel, será possível fazer um ajuste de função polinomial do segundo grau. Em seguida, construa no mesmo sistema de eixos os gráficos do número de arruelas em função do quadrado da frequência. Ressalte que esse gráfico pode ser ajustado por uma reta, indi-

3 arruelas 6 arruelas 9 arruelas 12 arruelas 15 arruelas

cando que a resultante centrípeta depende da frequência de rotação ao quadrado. Em seguida, escolha um valor no eixo da força e trace uma reta paralela ao eixo das frequências (ver figura indicativa ao lado), a fim de estudar a relação entre a frequência (pontos onde essa paralela intercepta as retas) e o raio (R). Construa outra tabela com esses dados e um novo gráfico da frequência em função do raio de curvatura. Esse gráfico pode ser ajustado por uma curva exponencial, evidenciando uma relação inversa entre essas grandezas. Com isso, é possível estabelecer uma equação que descreve o valor da força centrípeta, ou seja: Ƒcp = k . ƒ2 . R (k é uma constante que pode ser escrita como 4.π2.m).

2

Força inercial Um dos conceitos apresentados no artigo e que costuma gerar muita polêmica entre os alunos é o de força centrífuga. É comum a confusão entre força centrífuga e o princípio da inércia. Quando fazemos uma curva em um veículo, por exemplo, temos a sensação de sermos empurrados para fora da curva, como se estivéssemos sob a ação de uma força, razão de se chamar a causa desse efeito de força centrífuga (para fora). Discuta esse tema com os alunos, chamando a atenção que a força centrífuga aparece em sistemas de referência acelerados, chamados sistemas não inerciais, particularmente naqueles que realizam movimentos circulares. Essa força é chamada de força inercial ou fictícia porque não é exatamente uma força. Os objetos

Raio de 0,40 m

Raio de 0,60 m

Raio de 0,80 m

Raio de 1,00 m

Frequência (Hz)

Frequência (Hz)

Frequência (Hz)

Frequência (Hz)

são “empurrados” para fora das trajetórias curvilíneas não devido à existência de uma força centrífuga, mas porque a força centrípeta necessária para mantê-los na curva não é suficiente. No experimento sugerido, se o fio se romper, a força de tração desaparece e com ela também a resultante centrípeta. O corpo, porém, permanece com seu vetor velocidade constante e descreve um movimento retilíneo, tangente à trajetória. Assim, o que observamos nada mais é do que o princípio da inércia em ação. Daí o nome de “força inercial”.

3

Equilíbrio da moto: Por que é preciso incliná-la na curva? O ângulo de inclinação define o valor da força centrípeta (ver figura 2, que mostra as forças que atuam na moto). mg N = mg/cosx x

Figura 2

N.senx = mv2/R

R

Na figura podemos perceber que: tan x = Fcp/P Ou seja, quanto maior a inclinação (ângulo x) da moto, maior a força centrípeta. Mas há um limite para essa inclinação, pois a resultante das forças não pode ir além da base do sistema ciclista-moto.

Roteiro sugerido por Gustavo Isaac Killner, professor de física do Instituto Federal de Educação Ciência e Tecnologia de São Paulo e do Colégio Santa Cruz. SCIENTIFIC AMERICAN BRASIL AULA ABERTA

57


PARA O PROFESSOR BIOLOGIA

A fascinante evolução do olho PROPOSTAS DE ATIVIDADES

U

m primeiro passo pode ser o levantamento de conhecimentos prévios dos alunos. Antes de mostrar o texto ou de qualquer explicação sobre o assunto, questione-os sobre a arquitetura do nosso olho: como ele funciona? Há efeitos ou possibilidades de aperfeiçoamento? Como esse mesmo órgão se apresenta em outros grupos animais? Se a turma já tiver estudado evolução, incentive-a a tentar traçar uma linha de desenvolvimento do olho, ou do órgão de captação de luz. Registre as ideias principais na lousa e peça que, ao final da discussão, todos as copiem em seus cadernos.

PROPOSTAS PEDAGÓGICAS CONTEXTUALIZAÇÃO

O

olho – sobretudo o dos vertebrados – tem sido objeto de discussão entre evolucionistas e fixistas (criacionistas ou adeptos do design inteligente). Ora é exemplo para argumentar sobre a impossibilidade de a seleção natural atuar em um órgão tão complexo, ora essa perfeição é contestada e o olho torna-se prova inexorável de um órgão selecionado. O texto do professor Trevor Lamb alimenta a polêmica e abre espaço para uma boa oportunidade de discussão em sala de aula.

Em um segundo momento apresente o artigo para a classe. Antes da leitura, explore as características do material: é escrito por um renomado pesquisador de neurociência, publicado em uma revista consagrada como um dos principais meios de divulgação científica, repleta de infográficos e escrita com uma linguagem entre a aca-

COMPETÊNCIAS E HABILIDADES SEGUNDO A MATRIZ DE REFERÊNCIA DO ENEM Ciências da Natureza e suas Tecnologias n Competência de área 1 H3 – Confrontar interpretações científicas com interpretações baseadas no senso comum, ao longo do tempo ou em diferentes culturas. n Competência de área 4 H15 – Interpretar modelos e experimentos para explicar fenômenos ou processos biológicos em qualquer nível de organização dos sistemas biológicos. H16 – Compreender o papel da evolução na produção de padrões, processos biológicos ou na organização taxonômica dos seres vivos.

58 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

n Competência de área 5 H17 – Relacionar informações apresentadas em diferentes formas de linguagem e representação usadas nas ciências físicas, químicas ou biológicas, como texto discursivo, gráficos, tabelas, relações matemáticas ou linguagem simbólica. n Competência de área 8 H28 – Associar características adaptativas dos organismos com seu modo de vida ou com seus limites de distribuição em diferentes ambientes, em especial em ambientes brasileiros. n Competências expressas na matriz de referência para redação III – Selecionar, relacionar, organizar e

interpretar informações, fatos, opiniões e argumentos em defesa de um ponto de vista. Matriz de referência do Enem disponível em: http://por tal.mec.gov.br/index. php?option=com_content&view=article&id= 13318&Itemid=310&msg=1 CONTEÚDOS – A biologia como ciência: história, métodos, técnicas e experimentação. – Hipóteses sobre a origem dos seres vivos: teorias de evolução. – Padrões anatômicos e fisiológicos observados nos seres vivos. – Interações entre os seres vivos.


dêmica e a popular. A leitura do texto pode ser feita em sala de aula ou em casa, individual ou coletivamente. O importante é que os leitores identifiquem – por meio de marcações coloridas, por exemplo – as principais ideias do autor, os argumentos que utiliza para defendê-las, os trechos que não compreenderam, o que julgam irrelevante, confuso etc. Debata essas anotações com os estudantes e peça que eles montem um grande quadro com as ideias da turma. Depois da leitura é a vez de os alunos voltarem às suas primeiras anotações sobre o funcionamento e desenvolvimento evolutivo do olho. Eles devem rever, complementar e corrigir as ideias preliminares usando, em um primeiro momento, o texto do artigo e as conclusões do debate em sala e, em seguida, pesquisando na internet. Oriente-os quanto à seleção de sites, critérios de busca e confiabilidade das informações: podem explorar, por exemplo, sites de instituições universitárias e também de entidades vinculadas à religiões não evolucionistas. Esse trabalho de revisão e complementação requer tempo e dedicação. Enquanto isso, o professor pode explorar outros aspectos do texto. A concepção de ciência e de cientista pode ser questionada – o pesquisador não trabalha solitariamente, mas colaborativamente e em consonância com outros centros de pesquisa. Os resultados e descobertas não surgem do acaso nem rapidamente; há valores e interesses envolvidos na prática científica. Os estudantes podem localizar no texto quantos colaboradores diretos e quantos trabalhos (publicados em quais anos e em quais países) auxiliaram a pesquisa de Trevor Lamb. Perceberão que a ciência é construída coletivamente.

Este esforço dos alunos pode ser aproveitado para ampliar o infográfico do quadro Ecos da Evolução (pág. 29). Pode-se incluir, desde o ano e nome dos pesquisadores que fizeram determinadas descobertas, até novas informações frutos da pesquisa na internet. Na pesquisa, muito provavelmente, os alunos encontrarão os textos de Richard Dawkins, um darwinista cético e premiado divulgador de ciência. Alguns de seus livros tratam de suas hipóteses – fortemente evolucionistas – sobre a evolução do olho: o órgão (formador de imagens, não apenas o órgão sensível à luz) teria evoluído de forma independente mais de 40 vezes em vários grupos animais em diferentes momentos. Oriente a turma a pesquisar, na biblioteca da escola ou na internet, os diferentes tipos de olho que aparecem no reino animal. Instigue os alunos a discutir as limitações de cada um dos tipos de olho (composto, peduncular, lateral, frontal etc.). É provável que digam que determinado tipo de olho é muito melhor que outro. Melhor para o que, ou para quem? O processo de seleção natural é lento, mas implacável! Muitas são as pressões que compõem a seleção natural – entre elas estão a busca por alimentos e a fuga de predadores (que ajudam a permitir a sobrevivência da espécie). Proponha aos alunos um exercício de simulação das características dos olhos de algumas espécies. Antes devem escolher algumas espécies com olhos e características bem diferentes, por exemplo uma zebra com sua pelagem camuflada no bando e olhos laterais à cabeça e um leão, predador de zebras, com olhos frontais e boa visão noturna.

Os alunos devem, então, configurar as câmeras de seus celulares para a situação imaginada: um bando de zebras e uma emboscada noturna, com perseguição e predação. Para o grupo que representará as zebras, os telefones devem ficar posicionados na lateral da cabeça, enquanto o dos leões terá olhos frontais e com pupilas adequadas para enxergar com pouca luz. Eles devem, de fato, gravar as imagens e sincronizá-las no computador: há uma infinidade de softwares livres de edição de imagens que permitem colocar, lado a lado, as câmeras das zebras e dos leões (Kino ou Pitivi para sistemas Linux e MovieMaker para Windows). Para aqueles que se animarem com a ideia, a produção de um filme em 3D não é tão complicada quanto parece: há um tutorial com ferramentas on-line do 3D Video Creator do YouTube em http://www.youtube.com/editor_3d Com tempo e dedicação, a turma revelará bons trabalhos! Uma sessão de filmes com essas produções certamente vai merecer uma salva de palmas!

SUGESTÕES DE LEITURA Alguns aspectos da óptica do olho humano. Helene O. e A. F. Helene, em

Revista Brasileira de Ensino de Física no 3, vol. 33, 2011.

O maior espetáculo da Terra – As evidências da evolução. R. Dawkins.

Cia. das Letras, 2009.

A grande história da evolução – Na trilha de nossos ancestrais. R. Dawkins.

Cia. das Letras, 2009. Evolução e religião. S. D. Pena, em Revista Ciência Hoje, 8/10/2009. Disponível em http://cienciahoje. uol.com.br/colunas/deriva-genetica/ evolucao-e-religiao

Atividade proposta por Luiz Caldeira Brant de Tolentino-Neto, professor da Universidade Federal de Santa Maria, RS. SCIENTIFIC AMERICAN BRASIL AULA ABERTA

59


PARA O PROFESSOR GEOGRAFIA

O último grande aquecimento global PROPOSTAS PEDAGÓGICAS CONTEXTUALIZAÇÃO

N

ações emergentes como China, Índia, Rússia e Brasil e ocupantes do tradicional grupo das economias mais industrializadas, como Japão, EUA e França e Alemanha, manifestam posições antagônicas diante dos resultados mais alarmantes nos índices de aceleração das médias térmicas planetárias. E tornam bem limitadas as estratégias de solução, já que as políticas ambientais desconsideram a desigualdade econômica e territorial dos países. Em consequência, advém uma difícil questão: em curto prazo, quem deve contribuir mais com a construção de alternativas para o uso mais ecológico dos recursos energéticos? Os desenvolvidos, os emergentes, ou todas as nações na proporção de sua expressão econômica? Considerando, de acordo com o relatório, que a maior parte do aumento de temperatura observado nos últimos 50 anos foi provocada por atividades humanas, temos a evidência mais cristalina de que, independentemente dos acordos firmados, os danos tendem a penalizar, mais uma vez, os países com menor parcela de responsabilidade no processo e, por extensão, os mais vulneráveis aos impactos do termômetro planetário em ascensão. Qual, então, a contribuição que a descoberta de Lee Kump apresenta diante dos argumentos mais céticos de

que os estágios febris da Terra podem ser cíclicos, ou menos danosos do que se imagina? Basicamente um instigante esboço comparativo da liberação de dióxido de carbono entre o atual momento de aquecimento global e os dois episódios anteriores (do Cretáceo inferior e do chamado MTPE), como os mais conhecidos em períodos febris geológicos. Daí a conclusão do trabalho poder redimensionar o peso da modernidade urbano-industrial quase exclusivamente no fator “velocidade”, deduzindo que o registro fóssil revela que a rapidez de mudança climática provoca maior impacto nas formas de vida e ecossistemas que a extensão da mudança.

COMPETÊNCIAS E HABILIDADES SEGUNDO A MATRIZ DE REFERÊNCIA DO ENEM Ciências da Natureza e suas Tecnologias n Competência de área 3 H10 – Analisar perturbações ambientais, identificando fontes, transporte e(ou) destino dos poluentes ou prevendo efeitos em sistemas naturais, produtivos ou sociais. H12 – Avaliar impactos em ambientes naturais decorrentes de atividades sociais ou econômicas, considerando interesses contraditórios. n Competência de área 5 H19 – Avaliar métodos, processos ou procedimentos das ciências naturais que contribuam para diagnosticar ou solucionar problemas de ordem social, econômica ou ambiental. Ciências Humanas e suas Tecnologias n Competência de área 2 H6 - Interpretar diferentes representações gráficas e cartográficas dos espaços geográficos. n Competência de área 3 H14 – Comparar diferentes pontos de vista, presentes em textos analíticos e interpretativos, sobre situação ou fatos de natureza históricogeográfica acerca das instituições sociais, políticas e econômicas. 60 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

n Competência de área 6 H27 – Analisar de maneira crítica as interações da sociedade com o meio físico, levando em consideração aspectos históricos e(ou) geográficos. H29 – Reconhecer a função dos recursos naturais na produção do espaço geográfico,relacionando-os com as mudanças provocadas pelas ações humanas. H30 – Avaliar as relações entre preservação e degradação da vida no planeta nas diferentes escalas. Matriz de referência do Enem disponível em: http://portal.mec.gov.br/index.php?option=com_content&view=article &id=13318&Itemid=310&msg=1 CONTEÚDOS Estudo aplicado dos fenômenos geológicos e climáticos da Terra; importância das simulações e projeção de dados na interpretação dos processos ambientais; efeito estufa e aquecimento global como desafio às propostas de desenvolvimento sustentável.


PROPOSTAS DE ATIVIDADES

T

endo em vista que o período do último máximo termal, há 56 milhões de anos, teve duração bem mais lenta do que se estimava, podem-se trabalhar diferentes dimensões comparativas que auxiliam o entendimento das variáveis tempo/espaço aqui privilegiadas. Por exemplo: o que representaria um indicador de 1,7 petagramas de carbono por ano na atmosfera, calculado hoje em 9 petagramas e podendo atingir 25 petagramas antes do esgotamento das reservas de combustíveis fósseis? Cabe ao professor demonstrar a importância de caminhos interpretativos sugeridos a seguir.

1

Proporções e Velocidades Relativas. Os alunos precisam rever as escalas do tempo geológico e situar o ritmo de transformação e diversificação da vida na Terra no início da era cenozoica com seus episódios mais relevantes: diversificação de mamíferos, separação da América do Norte etc. Entretanto, não se pode dispensar uma considerável aproximação temporal que traduza todo esse processo nas escalas de meses semanas ou até de um dia. A obra Uma breve história de quase tudo do cronista e escritor Bill Bryson, assim como outras comparações, serve de apoio a essa demonstração relativa. Ela nos lembra que os 4,5 bilhões de idade da Terra, “traduzidos” em 24 horas fariam com que o desaparecimento dos dinossauros e a diversidade dos mamíferos ocorressem faltando 20 minutos para o fim desse dia, e nos 17 segundos finais, surgisse a humanidade. O que permitiria debate sobre a dimensão instantânea e explosiva das transformações ambientais na escala global nos escassos “segundos” da modernidade.

2

Visitando nossas minas de Longyearbyen. Uma das expressões mais fantásticas das descobertas

científicas encontra-se na sabedoria de chegar ao centro das questões caminhando rumo à periferia delas. Isto é, pode-se lembrar que a compreensão sobre o futuro climático da Terra demanda cada vez mais o entendimento dos paleoclimas, dos vestígios fósseis e dos detalhes atualizados de um imenso quebra-cabeça. Como um detetive que começa a estudar o criminoso pelo corpo da vítima, o professor pode estimular a compreensão das mudanças climáticas pelo acesso relativo a duas variáveis que, em princípio, se opõem à natureza “padrão” da atmosfera: nos lugares mais frios e com os elementos mais sólidos. Essa combinação converge nas minas setentrionais da Noruega. Mas regiões (urbanas ou rurais) específicas de muitos países sugerem vestígios de mudanças atmosféricas; estejam elas nas marcas ambientais ou na memória dos mais velhos. Não se trata aqui de confirmar mecanicamente as evidências das pesquisas de Kump, mas de retratar o processo de estudo que muito favorece o uso da visita de campo nas aulas sobre o tema. Assim, buscar localidades mais frias de uma região e o relato de instituições e comunidades sobre o que mudou em gerações muito favorece a compreensão significativa dos caminhos utilizados no artigo.

3

Tempo para adaptação. Quando ocorreu a última febre terrestre houve adaptação de muitas formas de vida. Na situação atual, porém, a questão é: haverá tempo para essa adaptação? Como e a que custo? E na realidade regional brasileira, também haverá esse tempo? Equipes de alunos podem projetar os limites dessa adaptação, para curto, médio e longo prazo, a partir de uma paisagem-desafio, seja demarcando o cenário em desenhos e fotos associadas, seja expondo discursivamente suas opiniões.

4

Consulta a fontes para simulação jornalística. As descobertas recentes sobre o longo tempo relativo do MTPE podem gerar reações mais díspares entre técnicos e grupos de interesse. E a formação crítica e criativa do aluno deve incorporar essa sensibilidade com relação à gestão da informação científica: nenhuma evidência é suficiente ou definitiva, em si, para mudar o rumo das coisas. Aí entra o papel estimulante do professor: como desenvolver argumentos favoráveis e contrários aos resultados dos estudos de Kump? Pensando, de um lado, nos que consideram a atual febre planetária um fato exclusivo e terrível e, de outro, nos que mantêm a crença na velocidade positiva da “máquina” global, sugira as seguintes atividades: a) busca sistemática em páginas da web (ver indicações no final), garantindo uma ampliação de argumentos para a seleção de ideias; b) montagem de um quadro de tópicos prós e contrários ao impacto dessas novas descobertas nas negociações internacionais sobre o clima; c) redação de breve artigo como entrevista a dois personagens que vão se contrapor quando questionados; d) indicação de duas ou três ações mais prováveis, capazes de apontar – quem sabe – um novo protocolo internacional para o fim dessa década. SUGESTÕES DE SITE 1. Síntese do 4o Relatório do IPCC: www.multiciencia.unicamp.br/artigos_08/ r01_8.pdf 2. Programa das Nações Unidas para o Meio Ambiente: www.pnuma.org.br/ 3. Instituto Carbono Brasil: www.institutocarbonobrasil.org.br/ 4. WWF-Brasil: www.wwf.org.br/ 5. Centro de Ciência do Sistema Terrestre: www.ccst.inpe.br/

Atividades sugeridas por Christian Dennys Monteiro de Oliveira, geógrafo e professor adjunto da Universidade Federal do Ceará, doutor em geografia pela Universidade de São Paulo e pesquisador nas temáticas de geografia cultural e educação patrimonial.

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

61


PARA O PROFESSOR QUÍMICA

Desafios para transformar conceitos em realidade

PROPOSTAS PEDAGÓGICAS CONTEXTUALIZAÇÃO

O

artigo de Paulo Seleghim Júnior e Igor Polikarpov está dividido em duas partes. A primeira aborda a produção de etanol pela forma tradicional no Brasil, a partir da sacarose da cana-de-açúcar, e a segunda, pela nova proposta, obtido da biomassa gerada pela cana, isto é, da celulose. Esta última mostra as dificuldades técnicas e as tentativas de soluções apresentadas pelos pesquisadores para tornar comercialmente viável a obtenção do etanol celulósico.

É importante perceber as menções aos diferentes carboidratos e suas características. O aluno pode facilmente identificar nomes de carboidratos estudados durante as aulas, como celulose, frutose e glicose, por exemplo. Também é possível que ele perceba a referência a alguns processos com os quais já teve contato e que fazem parte de seu cotidiano, como a reação de hidrólise da sacarose e a fermentação da glicose (C6H12O6), responsável pela obtenção do etanol (C2H5OH) e do dióxido de carbono (CO2). Duas informações importantes do texto dizem respeito a vantagens no uso do etanol: a) obtendo-o a partir da celulose, o volume resultante pode dobrar sem diminuir a área destinada ao plantio de alimentos; b) na combustão, a emissão de gás carbônico é menor que no caso da gasolina ou do diesel. Com base nessas informações, discuta com os alunos sobre o que a sociedade pensa a respeito do uso do etanol como combustível. Isso in62 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

clui, por exemplo, as manifestações da mídia sobre a questão do uso da área destinada ao plantio de alimentos para o cultivo da cana-de-açúcar visando a produção de álcool. Outra possibilidade é a exploração de uma tabela comparativa (indicada a seguir) entre diferentes combustíveis, por exemplo, sugerindo aos alunos que estabeleçam relações entre a energia produzida na combustão de cada substância e a emissão de gás carbônico. Combustível

Equação da combustão (kJ/mol)

Etanol

C2H5OH(L) + 3 O2(g)

Gasolina

C8H18(L) + 25/2 O2(g)

Diesel

C12H26(L) + 37/2 O2(g)

͢

͢

͢

mols de CO2 emitido

Energia produzida por mol de CO2

2 CO2(g) + 3 H2O(L) H= -1366

2

- 683 kJ/mol

8 CO2(g) + 9 H2O(L) H= - 5471

8

- 684 kJ/mol

12 CO2(g) + 13 H2O(L) H= - 7031

12

- 586 kJ/mol

COMPETÊNCIAS E HABILIDADES SEGUNDO A MATRIZ DE REFERÊNCIA DO ENEM Matemática e suas Tecnologias n Competência de área 4 H17 – Analisar informações envolvendo a variação de grandezas como recurso para a construção de argumentação. Ciências da Natureza e suas Tecnologias

n Competência de área 1

H4 – Avaliar propostas de intervenção no ambiente, considerando a qualidade da vida humana ou medidas de conservação, recuperação ou utilização sustentável da biodiversidade.

n Competência de área 3

H8 – Identificar etapas em processos de obtenção, transformação, utilização ou reciclagem de recursos naturais, energéticos ou matérias-primas, considerando processos biológicos, químicos ou físicos neles envolvidos.

n Competência de área 4

H17 – Analisar fatores que explicam o impacto das novas tecnologias no processo de territorialização da produção. n Competência de área 7 H26 – Avaliar implicações sociais, ambientais e/ou econômicas na produção ou no consumo de recursos energéticos ou minerais, identificando transformações químicas ou de energia envolvidas nesses processos. CONTEÚDOS Carboidratos: classificação, exemplos e diferenças, reações de hidrólise. Combustíveis: álcool e gasolina, octanagem, vantagens e desvantagens dos biocombustíveis. Obtenção do etanol no Brasil: hidrólise da sacarose e fermentação da glicose. Obtenção do etanol celulósico. Biomassa. Enzimas.


PROPOSTAS DE ATIVIDADES

O

trabalho aqui sugerido pode ser desenvolvido em quatro ou cinco aulas e contar com a ajuda dos professores de biologia e língua portuguesa.

1

Distribua cópias do artigo para os alunos. Se possível, incentive o uso de recursos tecnológicos para diminuir o número de folhas impressas, como tablets ou notebooks. Informe o link para acessar esse material na internet. Solicite que se reúnam em pequenos grupos (até quatro integrantes, no máximo) para a leitura do texto. Oriente-os a assinalar os trechos que acharem importantes. Ofereça como sugestão a última frase do primeiro parágrafo do texto: “De fato, o etanol misturado à gasolina age como um antidetonante permitindo o aumento da taxa de compressão e resultando em um aumento da eficiência energética com diminuição da emissão de poluentes”.

2

Com a ajuda dos estudantes, classifique as perguntas em categorias de semelhança e forme grupos de tal modo que cada equipe se encarregue de uma delas. Peça que respondam às questões de sua categoria, sem consulta a nenhum material, apenas com seus conhecimentos próprios. Deixe para um momento posterior o trabalho com consulta bibliográfica, que pode incluir livros didáticos de química, as edições 53, 97 e 102 de SCIENTIFIC AMERICAN, bem como a edição especial Como deter o aquecimento global (no 19). Também a edição 1 de Aula Aberta pode ser utilizada. Depois, peça que comuniquem suas conclusões ao restante da classe. Oriente-os a comparar suas respostas dadas antes e após a consulta, para então elaborar um texto enunciando suas conclusões finais.

3

Junte os textos dos grupos e, com a ajuda da turma, componha uma apresentação final, que poderá ser pu-

blicada em alguma ferramenta de divulgação virtual ou no jornal da escola.

4

Recomende que os alunos levem para a aula seguinte material de consulta a fim de discutirem os seguintes assuntos: n Biocombustíveis, vantagens e desvantagens de sua adoção. n Plástico verde, o que é, quais os prós e contras.

5

No decorrer dessas atividades, ou mesmo após, proponha algumas questões aplicadas nos exames do Enem (2007 e 2011) que abordam o uso do etanol e outros combustíveis e seus efeitos no meio ambiente (disponíveis na internet).

6

Outra sugestão para enriquecer as aulas e despertar bastante interesse dos alunos é convidá-los para a realização de uma atividade experimental destinada a obter o etanol pelo processo de fermentação de carboidratos. Trata-se de um etanol de primeira geração, de acordo com a classificação indicada no artigo. Alguns experimentos permitem produzi-lo a partir da sacarose e de fermentos. Quando a sacarose (o açúcar de mesa, um dissacarídeo) é colocada em contato com enzimas, ocorre inicialmente sua hidrólise, formando os monossacarídeos glicose e frutose, segundo a equação: C H O +H O ͢ C H O +C H O 12

22

sacarose

11

2

6

12

glicose

6

6

12

frutose

6

Em uma etapa seguinte, a glicose, também em contato com enzimas, fornece o etanol e gás carbônico, no processo chamado de fermentação. C6H12O6

glicose

͢ 2C H OH + 2CO 2 5 2 etanol

gás carbônico

As etapas de hidrólise e fermenta-

ção podem ser realizadas em um experimento comum, para o qual será necessário o seguinte material: duas garrafas de refrigerante (uma de 300 ml e outra de 600 ml) bem secas, um tubo com solução de fermento caseiro para pão, açúcar de mesa (sacarose), solução saturada de Ca(OH)2 e uma mangueira de borracha. Procedimentos Faça um furo na tampa da garrafa menor por onde deve passar a mangueira e vede-o com massa plástica ou outro vedante qualquer. Coloque a solução de sacarose nessa garrafa e depois verta a solução de fermento e feche com a tampa acoplada à mangueira. Na garrafa maior despeje a solução límpida de hidróxido de cálcio e nela coloque a outra extremidade da mangueira, de modo que fique mergulhada na solução. Deixe o sistema montado em repouso por algumas horas e observe o borbulhar do gás carbônico obtido no processo de fermentação. Ele passa pela mangueira e vai para a garrafa onde está o hidróxido de cálcio, provocando a formação de carbonato de cálcio (notado pelo turvamento da solução), segundo a equação Ca(OH)2 + CO2 ͢ CaCO3. + H2O Após algum tempo, pode-se sentir o odor característico do etanol (álcool comum) obtido no processo. SUGESTÕES DE VÍDEOS E SITES Sobre biocombustíveis 1. www.dw-world.de/dw/article/0,,2337370,00.html 2. qnesc.sbq.org.br/online/qnesc28/03-QS-3207.pdf 3. www2.uol.com.br/sciam/reportagens/ aposta_no_biodiesel.html Sobre plástico verde 4. www2.uol.com.br/sciam/noticias/plastico_feito_com_plantas_boom_ambiental_ou_maldicao_.html

Roteiro sugerido por Marcus Eduardo Maciel Ribeiro, professor do Colégio Leonardo da Vinci – Beta e coordenador de química do Anglo Vestibulares, ambos em Porto Alegre.

SCIENTIFIC AMERICAN BRASIL AULA ABERTA

63


PARA O PROFESSOR MATEMÁTICA

A origem da computação PROPOSTAS PEDAGÓGICAS CONTEXTUALIZAÇÃO

A

palavra “computador” não traz para quem a diz, lê ou escreve nenhuma referência à sua etimologia, apesar de estar ainda em sua forma original. Vem de “computar”, que remete a contar, calcular. O usuário do computador no século 21 não associa

PROPOSTAS DE ATIVIDADES

O

artigo pode ser abordado sob duas perspectivas. A primeira diz respeito aos limites para a tecnologia. Quais são eles? Quão distante estão os primeiros computadores dos modelos de uso doméstico atuais? Quais as diferenças técnicas entre tais máquinas? Um ponto de partida pode ser uma reflexão sobre o comentário publicado na revista americana Popular Mechanics em 1949, que afirmava: “No futuro, os computadores não pesarão mais do que 1,5 tonelada.” A segunda é levar o aluno ao encontro da realidade dos computadores humanos. Para isso, é possível adotar diversos procedimentos, que mostram o quanto de trabalho se poupa ao apertar a tecla Enter. São procedimentos que, além de melhorarem a destreza aritmética, possibilitam aos estudantes visualizar aplicações

mais a invenção com o seu propósito original justamente por ela tê-lo ultrapassado. O artigo de MartIn Campbell-Kelly tem, portanto, esse mérito. Ao recapitular a origem da computação e fazer uma breve retrospectiva ilustrada da fase moderna, o estudan-

para conceitos como logaritmos que, embora superadas, permitem conhecer o quanto eles contribuíram para o avanço científico (ver roteiro sugerido na edição 8 de Aula Aberta). Nessa perspectiva, é possível também explorar o conceito da recursividade (tão importante quanto ignorado no ensino médio), que ajuda a desmitificar aparatos “mágicos” como as calculadoras, que aparentemente têm na memória todas as respostas possíveis.

nir as progressões aritméticas e geométricas usando princípios recursivos. Para isso, basta definir os valores do primeiro termo e da razão; o que diferencia essas sequências é a operação realizada para obter o termo seguinte (adição da razão ao termo anterior em um caso, e multiplicação no outro). Tal definição permite estabelecer a condição para que três termos consecutivos formem uma dessas sequências e o cálculo do termo geral de cada uma delas.

Assinale para os alunos que em muitas linguagens de programação uma função pode chamar a si própria (uma característica das funções recursivas). O processo recursivo baseia-se na recorrência válida para uma sequência: a obtenção dos termos seguintes ocorre a partir dos anteriores e de um padrão previamente definido. É possível, por exemplo, defi-

1

COMPETÊNCIAS E HABILIDADES SEGUNDO A MATRIZ DE REFERÊNCIA DO ENEM MATEMÁTICA E SUAS TECNOLOGIAS

n Competência de área 5

H1 – Reconhecer, no contexto social, diferentes significados e representações dos números e operações - naturais, inteiros, racionais ou reais. H2 – Identificar padrões numéricos ou princípios de contagem. H3 – Resolver situação-problema envolvendo conhecimentos numéricos. H5 – Avaliar propostas de intervenção na realidade utilizando conhecimentos numéricos.

CIÊNCIAS HUMANAS E SUAS TECNOLOGIAS n Competência de área 4 H16 – Identificar registros sobre o papel das técnicas e tecnologias na organização do trabalho e/ou da vida social.

n Competência de área 1

64 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

te é apresentando a uma máquina paradoxalmente tão familiar quanto desconhecida.

H19 – Identificar representações algébricas que expressem a relação entre grandezas. H21 – Resolver situação-problema cuja modelagem envolva conhecimentos algébricos.

Movimentações financeiras Uma aplicação interessante da recursividade, para examinar com a classe, é a variação do saldo em uma capitalização composta. Por exemplo, se um capital C é depositado em um fundo com taxa mensal i, a sequência de saldos pode ser obtida de a1 = C e an = an-1 + an-1 . i = an-1 . (1 + i) . É possível, com isso, mostrar a diferença entre as capitalizações simples e composta e associar cada uma delas às progressões aritméticas e geométricas. A recursividade, no caso, ilustra o conceito de “juros sobre juros” da capitalização composta. É possível, ainda, ampliar as movimentações financeiras estudadas. A variação do saldo se um depósito D é feito periodicamente é dada por a1 = C e an = an-1 . (1 + i)+ D . Repare como a definição recursiva simplifica bastante o entendimento do conceito, acrescentando


somente o depósito em relação à movimentação anterior. Outra possibilidade é a evolução da dívida S em P parcelas iguais, com a1 = S e an = an-1 . (1 + i) – P. Pode-se variar inserindo tempo de carência ou pagamento de entrada, por exemplo. Para dar conta de movimentações financeiras com prazos longos, recomenda-se o uso de planilhas eletrônicas (Microsoft Excel e BrOffice Calc são adequados). A grande vantagem que a recursividade traz nesses casos é a compreensão da variação de cada movimentação, o que não acontece quando se aplicam as fórmulas algébricas. O uso de recursos computacionais ilustra bem os benefícios da tecnologia discutidos anteriormente. Ainda, movimentações financeiras são (ou deveriam ser!) de interesse de membros de uma sociedade de consumo tal qual a nossa.

2

Método de Newton-Raphson para calcular raízes Processos recursivos também foram importantes para a determinação de raízes de funções e, com isso, a obtenção de parte da dízima de números irracionais. Um dos primeiros métodos conhecidos foi desenvolvido por Newton e aperfeiçoado por Raphson e envolve conceitos de cálculo para sua aplicação. No entanto, é possível apresentar a recursividade para um caso específico. Por exemplo, vamos calcular o valor aproximado de 2. Se x = 2, então x2 = 2 => x2 – 2 = 0. Ou seja, o número desejado anula a função f (x) = x2 – 2, cujo gráfico é ilustrado ao lado. Aplicando a lei da função, percebe-se que x = 4 não é o valor desejado: f(4) = 16 – 2 = 14. A grande ideia aqui foi obter o valor seguinte a ser testado calculando a abscissa do ponto onde a reta tangente à parábola no ponto (4; 14) intercepta o eixo das abscissas. A informação que precisa ser dada aos alunos (e pode ser ilustrada esboçando algumas situações) é que o coeficiente angular dessa reta, no pon-

to de abscissa k, tem valor 2k. De modo genérico, o coeficiente angular da reta tangente à curva em um ponto de certa função f(x) é dado pelo valor numérico da derivada f´(x) para a abcissa desejada. No caso das funções polinomiais f(x) = anxn, a derivada é dada por:f’(x) = n .anxn-1,regra que pode ser aplicada a cada um dos termos xn dessas funções . No caso, f(x) = x2 – 2 e f´(x) = 2x. Em x = 4, a reta tangente tem coeficiente angular f’(4) = 2 . 4 = 8 . Assim, a equação da reta tangente é dada por y = 8x + b. Como (4; 14) pertence à reta, 14 = 8 . 4 + b => b = – 18. Logo, a equação dessa reta é y = 8x – 18 , cuja raiz é 2,25. Assim, se a1 = 4, a2 = 2,25. Observe a representação da reta e dos valores no gráfico abaixo. Cada novo valor obtido será mais próximo do valor desejado, e essa convergência é com frequência bastante rápida. Repetindo o proces-

so e aproximando alguns valores, conforme a precisão desejada, a nova reta tangente será y = 4,5x – 7,04, com raiz a3 = 1,56. Após 5 etapas, obtém-se a5 = 1,41. É importante destacar para os alunos a associação entre o funcionamento de calculadoras com procedimentos semelhantes. Afinal, elas não têm todas as respostas salvas na memória. Um bom exercício é implantar o processo recursivo em uma planilha eletrônica e, com isso, obter resultados com maior precisão. É necessário enfatizar que a dificuldade operacional que enfrentamos não é compartilhada pelos computadores digitais, mas só é possível utilizar um computador após ser programado por seres humanos. Cabe, aqui, uma discussão entre o emprego de máquinas substituindo funcionários e a necessidade de mão de obra qualificada para colocar tais máquinas em funcionamento.

SUGESTÕES DE LEITURA Aprendizagem de matemática financeira no ensino médio: uma proposta de trabalho a partir das planilhas eletrônicas. Marcelo Salvador Cóser Filho. 2008. Dispo-

nível em http://www.lume.ufrgs.br e: a história de um número (capítulos 1, 2 e 3). Eli Maor. Record, 2003. A música dos números primos (capítulos 8, 9 e 10). Marcus du Sautois. Jorge Zahar, 2003.

Roteiro sugerido por Marcelo Salvador Cóser Filho, professor de Matemática do Colégio Monteiro Lobato e do Curso Anglo, em Porto Alegre. É licenciado em matemática e mestre em ensino de matemática pela UFRGS. SCIENTIFIC AMERICAN BRASIL AULA ABERTA

65


ENSAIO

Singularidade humana e o futuro Q

ual a característica única dos humanos? E como ela contribui para o que hoje podemos chamar de modernidade comportamental? Como se desenvolveu? E em que influi para a compreensão do presente e do futuro? Em 2010, o projeto que dirijo na Arizona State University (ASU), Origins (http://origins.asu.edu), ajudou a promover um interessante encontro entre paleontólogos, antropólogos, primatólogos, biólogos evolucionistas, geneticistas, arqueólogos e psicólogos para discorrer sobre essas e outras questões. Abri a reunião mencionando que, ao tomar conhecimento desse assunto, algumas pessoas me indagavam sobre o que havia de tão singular nos seres humanos. É óbvio que, de um jeito ou de outro, todos os animais apresentam singularidades e, embora tenhamos caracteres especiais, também os têm as abelhas e girafas. Mas, como expressou Kim Hill, meu colega da ASU, “mesmo antes do advento da agricultura havia cerca de 70 milhões de pessoas vivendo nas comunidades humanas, de tal sorte que o Homo sapiens se espalhou mais amplamente pelo planeta que qualquer outro grande vertebrado. Não há nenhuma criatura na Terra que consiga competir, em termos de complexidade ou biomassa, com essas unidades sociais coesas”. E pelo planeta nos espalhamos. Já comentei a capacidade de nossa espécie para romper – e ocasionalmente até estraçalhar – as barreiras impostas pela Natureza contra nossa evolução. Há cerca de dois anos, Kevin N. Laland, da University of St. Andrews (Escócia), e seus colegas publicaram um relatório na Nature Reviews Genetics – baseado em uma formulação anterior feita por Robert Boyd, da University of California (Los Angeles), e Peter J. Richerson, da UC Davis – no qual argumentam que a cultura humana, definida como qualquer comportamento aprendido (incluindo a tecnologia), é a 66 SCIENTIFIC AMERICAN BRASIL AULA ABERTA

força dominante da seleção natural sobre os humanos modernos. O que me traz de volta ao presente. Reações vigorosas, veementes e enraivecidas a qualquer coisa por mim escrita que mencione “mudança climática”, combinadas com o poder da ganância, de um lado, e com a luta pela sobrevivência, de outro, convenceram-me de que são nulas as chances de os governos reduzirem de forma significativa a emissão industrial de gases de efeito estufa a tempo de promover alterações substanciais no clima do planeta e nos hábitats humanos. Então, talvez esteja na hora de pensarmos mais sobre como responderemos à série de possíveis alterações ambientais. Esse planejamento deve incluir o bom, o mau e o feio. O bom? Algumas áreas do planeta atualmente não cultiváveis certamente virão a sê-lo. O mau? Ao que parece, os eventos negativos ultrapassarão em muito os benéficos, e o pior cenário provavelmente envolverá a migração de vários bilhões de pessoas das regiões costeiras mais miseráveis do mundo, com consequentes dificuldades sociais, econômicas e políticas, riscos de fome decorrente de perdas regionais na agricultura e aumento das tensões internacionais, terrorismo e instabilidade política. O feio envolverá a necessidade, por exemplo, de prevenção contra os efeitos cada vez mais devastadores das extremas condições climáticas, a extinção de grande parte das espécies animais e vegetais, bem como a invasão de predadores e pestes em novas zonas.

Não acho que esses fenômenos vão acarretar o fim da humanidade ou mesmo da civilização. Somente vislumbro um mundo mudado (embora ficasse muito surpreso se para melhor), ao qual teremos de nos adaptar. Seria o exemplo máximo da coevolução gene-cultura: nossa tecnologia iria modificar o planeta e afetar drasticamente a seleção natural, não só para uma ampla parte das espécies, mas para os humanos também. E se refletiria na singularidade humana, no sentido por mim descrito anteriormente: nosso êxito evolucionário pode competir com o dos micróbios em relação ao nosso impacto sobre o ambiente terrestre. Uma vez mais relembro as discussões durante o encontro promovido pelo Origins: Curtis W. Marean, da ASU, descreveu a evolução dos hominídeos que viveram por aproximadamente 100 mil anos perto do extremo sul da África, em que oscilações extremas no nível do mar provocaram migrações, mudanças na caça e nos padrões alimentares, assim como o desenvolvimento de novas tecnologias. Esses indivíduos – talvez os ancestrais de todos nós – sobreviveram. Espero que nós também. A novidade é que a seleção ambiental dos hominídeos do futuro será induzida pela tecnologia e cultura humanas do presente, de um modo que talvez seríamos capazes de alterar racionalmente se tivéssemos agido de maneira racional o suficiente. ■ Por Lawrence M. Krauss, físico teórico, divulgador científico, professor fundador e diretor da Origins Initiative, pertencente à Arizona State University (www.krauss.faculty.asu.edu).

ILUSTRAÇÃO DE MATT COLLINS

Temos de saber usar melhor nossa capacidade única de delinear a evolução do mundo



Roteiros temáticos para atividades em sala de aula

Aula Aberta

Matriz de referência do

ENEM

BRASIL

O prazer de ensinar ciências

ANO I - NO 10 - 2012 - R$ 6,90

BIOLOGIA

A fascinante evolução do olho Órgão complexo carrega as cicatrizes da seleção natural

QUÍMICA

MATEMÁTICA

Etanol A história da celulósico não computação, compromete a da origem aos safra de alimentos dias atuais FÍSICA

Sobre duas rodas: as leis desse equilíbrio

GEOGRAFIA

Por que a febre do planeta hoje é a pior?