Page 1


CibernĂŠtica.indd 2

18-01-2007 17:28:01


A CIBERNÉTICA

Cibernética.indd 3

18-01-2007 17:28:01


CibernĂŠtica.indd 4

18-01-2007 17:28:01


Porfírio Silva A CIBERNÉTICA: Onde os Reinos se Fundem

Cibernética.indd 5

18-01-2007 17:28:01


CibernĂŠtica.indd 6

18-01-2007 17:28:01


SÉRIE “HISTÓRIAS DA CIÊNCIA” – Biblioteca Dragões do Éden –

Edição das Quasi Edições Coordenação do Centro de Estudos de História das Ciências Naturais e da Saúde (CEHCNS) Comissão Editorial: Clara Pinto Correia, José Pedro Sousa Dias e Ricardo Coelho

Conceitos e Objectivos A palavra “Ciência”, no sentido em que a usamos hoje, é uma invenção do século XIX. Mas o pensamento científico existe desde que existe a invenção da linguagem, e, com ela, a formulação das primeiras perguntas do homem sobre os mistérios do universo enorme e sem nome que o rodeia. Estas perguntas são tão poderosas na dinamização da estruturação de ideias como as primeiras organizações de mecanismos elementares de defesa contra um mundo imediatamente circundante e perigoso, onde só a inteligência pode permitir a sobrevivência de um primata glabro, sem garras e sem dentes de sabre, ou qualquer outro equipamento natural que jogue directamente a seu favor. O mundo das ideias científicas foi-se construindo ao longo dos séculos como um mosaico oscilante e fragmentado, um grande emaranhado de visões e leituras que se estabilizou muito devagar e nos legou as perguntas com que teremos de lidar no futuro. Esta colecção propõe-se contribuir

7

Cibernética.indd 7

18-01-2007 17:28:01


com aspectos diversos desse mosaico para a revelação ao leitor do espectro fantástico dos pequenos fragmentos que foram formando o mundo em que estamos hoje, publicando textos de História e outras perspectivas sobre as Ciências, escritos por especialistas, mas destinados a um público mais alargado.

Normas de Edição A edição de textos na Colecção Histórias da Ciência resultará de uma apreciação conjunta entre as Quasi Edições e a sua Comissão Editorial. Todos os que considerem ter contribuições originais dentro do âmbito do seu conceito e objectivos podem enviar os manuscritos para a Comissão Editorial, que avaliará do seu enquadramento nos objectivos da Colecção. Em caso de dúvida, a comissão editorial poderá pedir o parecer de outros especialistas da área específica a que a obra diga respeito.

Instruções aos Autores Devem ser solicitadas ao CENTRO DE ESTUDOS DE HISTÓRIA DAS CIÊNCIAS NATURAIS E DA SAÚDE (CEHCNS), Instituto de Investigação Científica Bento da Rocha Cabral, Calçada Bento da Rocha Cabral, 14, 1250-047 Lisboa – Portugal, Tel. Fax 213 850 039 – e-mail: cehcns@mail.telepac.pt

8

Cibernética.indd 8

18-01-2007 17:28:01


PRÓLOGO

Houve um tempo em que julgávamos que o nosso planeta Terra estava no centro do universo. Descobrimos que nem no centro do nosso pequeno recanto, o sistema solar, estamos. Pensámos, durante muitos séculos, que os humanos eram uma categoria separada da natureza pela criação directa de um agente superior. Começámos, entretanto, a compreender que os humanos são animais, com estreitos laços de familiaridade com outros animais – e, pouco a pouco, vamos admitindo que isso não tem nada de desprestigiante. A maioria de nós continua a admitir como evidente que os animais e as máquinas pertencem a “reinos” diferentes. Contudo, vamo-nos apercebendo dos crescentes cruzamentos entre o humano e a máquina, a caminho de se tornar menos clara a diferença entre a engenharia do corpo (o campo da prótese, física ou cognitiva) e a engenharia do espírito (a incorporação das ideias de outros na nossa própria carne). Convém, se queremos compreender o terreno que pisamos, não descurar inteiramente essa outra revolução copernicana em curso. Independentemente de antecedentes filosóficos e científicos mais ou menos antigos, a raiz mais próxima da ideia de um terreno partilhado entre o natural e o artificial, da noção de que não há uma linha nítida de fronteira entre o ser vivo e o artefacto, está no movimento cibernético. A cibernética, cujos momentos de mais brilho se localizam nos anos 40 e 50 do século XX, definiu formas para um debate que está hoje mais vivo do que nunca e que, em muitos sentidos, continua em torno das mesmas questões. O

9

Cibernética.indd 9

18-01-2007 17:28:01


presente texto, inserido numa reflexão que toca os fundamentos filosófica das “ciências do artificial”, procura uma aproximação a esse momento teórico no seu enquadramento histórico. Temos aqui a ambição de não querer pensar em vez dos leitores: não porque queiramos evitar o compromisso com esta ou aquela tese, mas porque julgamos produtiva uma postura que recentemente foi defendida como “realismo radicalmente neutro”. João Paulo Monteiro, em Realidade e Cognição, uma obra dedicada a temas de epistemologia e filosofia da ciência que sugere algumas pistas fecundas, nomeadamente no que toca a uma compreensão naturalista da consciência, argumenta sistematicamente a partir do que designa por “realismo radicalmente neutro”. Isso significa, por um lado, a convicção de que «vivemos num mundo que não fomos nós que fizemos, que há uma realidade independente de qualquer “sujeito constituinte” ou de qualquer “contexto cultural” que a conceba» (e daí o realismo) – e, por outro lado, que «em termos metafísicos o mais prudente é permanecermos totalmente neutros quanto ao problema da natureza última dessa realidade» (Monteiro 2004:125). É esse realismo neutro que inspira a atitude, que é a nossa neste texto, de recusar que qualquer “metafísica pesada” condicione à partida o contacto com um pensamento cujas ideias centrais continuam a trabalhar a cultura e a ciência dos nossos dias. O processo de investigação de que este texto é um resultado parcial beneficiou do apoio da Fundação para a Ciência e Tecnologia (SFRH/BD/10127/2002).

10

Cibernética.indd 10

18-01-2007 17:28:01


INTRODUÇÃO

Para (Heylighen e Joslyn 2001), “A cibernética é a ciência que estuda os princípios abstractos de organização dos sistemas complexos [ao nível funcional]. A cibernética estuda como os sistemas usam informação, modelos e acções de controlo para se guiarem por objectivos e os manterem face às perturbações. Sendo inerentemente transdisciplinar, o raciocínio cibernético pode ser aplicado à compreensão, modelação e projecto de sistemas de qualquer tipo: físicos, tecnológicos, ecológicos, psicológicos, sociais, ou qualquer combinação destes.” Esta definição é ilustrativa do facto de os seus autores estarem entre os que hoje se consideram praticantes de uma ciência chamada cibernética. Mas não é nesse ponto que esta definição nos interessa. É antes o facto de ela ilustrar a ambição da cibernética tal como ela existiu nos anos que se seguiram ao fim da Segunda Guerra Mundial. É sobre essa “cibernética histórica”, digamos assim, que vamos debruçar-nos. Andando à procura das raízes de uma parte das “ciências do artificial” que se praticam na transição do século XX para o século XXI, não podemos evitar considerar o peso que teve o movimento cibernético nas décadas de 1940 e 1950. Não vamos aqui procurar uma descrição histórica precisa nem aprofundada desse movimento. O que pretendemos é mostrá-la como um momento significativo da afirmação de uma certa visão das relações entre o natural e o artificial. Tentaremos, para o efeito, um contacto com alguns dos conceitos centrais da cibernética e uma visão de alguns dos debates que ela suscitou nesse tempo. Um objectivo que pretendemos alcançar é que se torne compreensível que são lançados nestes anos

11

Cibernética.indd 11

18-01-2007 17:28:01


cibernéticos muitos dos temas e dos problemas que continuam a alimentar a investigação nas ciências do artificial. Traçar uma história rigorosa da cibernética, mesmo que apenas nos anos 40 e 50 do século XX, seria demasiada ambição para este pequeno texto. Essa tarefa exigiria uma história intelectual global que se projectasse muitos anos para trás e muitos anos para a frente em relação a essas décadas – dada a diversidade de percursos que convergem e de percursos que nascem nesse ponto. Assim sendo, vamos concentrar-nos apenas em alguns momentos e testemunhos mais relevantes. A opção foi sempre a de tratar com a devida profundidade os elementos que escolhemos pelo seu particular significado, em desfavor de uma outra opção que consistiria em abordar mais superficialmente muitos possíveis pontos de contacto com a cibernética. Começaremos por apreciar dois artigos de 1943, os quais são considerados por muitos autores como fundadores da rede problemática da cibernética. Passaremos depois a uma análise de três documentos que reflectem a importância do ano de 1948 no desenvolvimento da cibernética. Não deixaremos, aqui, de fazer uma referência à primeira série de cinco das chamadas Conferências Macy: série de dez conferências que, entre 1946 e 1953, foram um verdadeiro laboratório de desenvolvimento da cibernética. Prosseguiremos com uma análise bastante mais detalhada da segunda fase das Conferências Macy. Continuaremos com uma apreciação do impacte da cibernética fora dos EUA e daremos, depois, uma visão das máquinas que exemplificavam o seu entendimento das potencialidades do artificial na emulação do natural.

12

Cibernética.indd 12

18-01-2007 17:28:01


DOIS ARTIGOS FUNDADORES DA PROBLEMÁTICA CIBERNÉTICA (1943)

Em 1943 são publicados dois artigos que definirão a temática de arranque da cibernética e que, nesse sentido, são considerados “fundadores” dessa abordagem. São também fundadores no sentido em que contam entre os seus autores com personagens que terão influência decisiva na orientação deste modo de ver a ciência e o mundo. Comportamento, propósito e teleologia. Um dos dois artigos fundadores da cibernética publicados em 1943 é de Arturo Rosenblueth, Norbert Wiener e Julian Bigelow (Rosenblueth et al. 1943). Intitulado “Behavior, Purpose and Teleology”, estabelece uma classificação dos comportamentos de uma entidade e fá-lo recorrendo a certos pressupostos e noções que virão a ser centrais no movimento cibernético. Wiener e Bigelow trabalharam, durante a guerra, em questões de defesa anti-aérea: sendo o alvo móvel, era preciso recorrer a formas de prever a sua posição futura a partir de uma informação parcial sobre a sua trajectória passada – condição de bom desempenho da peça de artilharia. A solução a que recorreram passava pela ideia de regulação de um sistema com base no desvio observado entre a sua acção efectiva e o resultado projectado (por quantos metros se falhou o alvo nos disparos anteriores). Trataram, então, de colocar a Rosenblueth, fisiologista, a questão: poderiam aplicar a sua conceptualização da defesa anti-aérea aos processos implicados no movimento voluntário de um humano? Este enquadramen-

13

Cibernética.indd 13

18-01-2007 17:28:01


to (Dupuy 1994:36) ajuda a compreender o artigo que junta, como autores, esses três personagens desta história de ultrapassagem de fronteiras entre domínios científicos aparentemente distantes. A classificação dos comportamentos de um objecto, que é estabelecida em (Rosenblueth et al. 1943), resume-se na seguinte tabela, que seguidamente analisaremos com mais detalhe: 1.ª,

Preditivo

2.ª, …

Com retroacção

…, nª ordem

(teleológico)

de predição

Propositado Não preditivo Activo Sem retroacção Comportamento Aleatório

Passivo

Todo o comportamento é activo ou passivo. No comportamento activo, o objecto é a fonte da energia produzida numa reacção específica (o que não impede que essa energia tenha sido captada anteriormente do ambiente); no comportamento passivo, toda a energia produzida numa reacção foi directamente transmitida ao objecto a partir do exterior (uma pedra atirada) ou o objecto limita-se a controlar energia que lhe é exterior (um pássaro a planar). O comportamento activo pode ser propositado ou aleatório. O comportamento propositado é aquele “que pode ser interpretado como dirigido para a consecução de um objectivo” – sendo que “objectivo” significa tão somente uma “condição final” na qual o

14

Cibernética.indd 14

18-01-2007 17:28:02


objecto atinge uma posição espácio-temporal estável relativamente a outros objectos ou eventos. Esclarece-se: a ideia presente em “propósito” ou “comportamento propositado” é a de que está presente uma “actividade voluntária”; por sua vez, a acção voluntária caracteriza-se pelo facto de que ela envolve a selecção de um objectivo e não a selecção do movimento específico que permite atingi-lo. Por exemplo, quando queremos levar à boca um copo de água, não escolhemos os movimentos que para isso são necessários, mas apenas esse objectivo. Se o comportamento não é propositado, é aleatório. O comportamento activo propositado pode ser teleológico ou não. Comportamento teleológico é o que é servido por um mecanismo de retroacção (feedback) negativa. Qualquer retroacção consiste em algum modo de retorno ao objecto da energia por ele produzida numa reacção específica ao ambiente. Na retroacção positiva, o sinal da energia que reentra é o mesmo da energia que saíra (como no feedback de um amplificador eléctrico) e tem um efeito de reforço. Na retroacção negativa, o sinal que retorna do alvo da acção restringe a energia produzida, mantém o output dentro de certos limites para evitar que o comportamento vá para lá do que é desejável em termos de consecução do objectivo. Comportamento não teleológico é aquele em que não há retroacção negativa no decurso do comportamento (por exemplo, quando a rã lança a língua para capturar a mosca, já não recebe mais nenhuma sinal da presa durante a execução). O comportamento activo propositado com retroacção negativa pode ser preditivo ou não. O comportamento preditivo (ou extrapolativo) é aquele em que há uma extrapolação de condições passadas para condições futuras, a qual influencia a capacidade do sistema para atingir o seu alvo. Aumenta o nível de sofisticação da extrapolação com o aumento do número de dimensões espaciais e temporais que o objecto consegue monitorizar. O que nos parece constituir a tese central de todo o artigo é a unificação do animado e do inanimado pela ciência do comportamento. A classificação dos comportamentos é apresentada como

15

Cibernética.indd 15

18-01-2007 17:28:02


tendo um carácter geral, no sentido em que se aplica quer aos comportamentos de entidades animadas (incluindo os animais e os humanos), quer ao comportamento das máquinas. Isso é afirmado explicitamente, quando se aponta como uma das razões para adoptar esta classificação o facto de ela ser “aplicável tanto às máquinas como aos organismos vivos, seja qual for a complexidade do seu comportamento” (Rosenblueth et al. 1943:22). O facto de as máquinas ainda não disporem de todas as modalidades de comportamento dos animais é um facto contingente: o que importa é que há uma sobreposição considerável entre os dois “reinos” do comportamento. E há já mesmo exemplos de comportamentos das máquinas que suplantam o comportamento dos humanos: nenhum humano tem output eléctrico ou emite ondas rádio, apesar de haver máquinas que o fazem. Assim, os métodos de estudo dos dois grupos (organismos vivos e máquinas) são similares, porque ainda não se descobriu nenhuma característica única de um grupo que o distinga qualitativamente do outro. Há diferenças específicas, tanto de um lado como de outro, mas não indicam nenhuma distinção fundamental: não há por enquanto nenhuma máquina capaz de escrever um dicionário sânscrito/mandarim, mas também não há nenhum ser vivo que se desloque sobre rodas (Rosenblueth et al. 1943:22). A afirmação da unidade (continuidade) fundamental entre o vivo e o inanimado traduz a eliminação da fronteira entre o natural e o artificial, se falarmos em termos de comportamento. Isso resulta claramente das afirmações explícitas que acabamos de mencionar e da bateria de exemplos apresentados. Nos exemplos, máquinas, animais e humanos aparecem lado a lado a justificar a pertinência da classificação proposta. Assim, um torpedo com um mecanismo de seguimento do alvo é exemplo de um comportamento propositado; o gato que persegue o rato é exemplo de uma entidade com comportamento preditivo; o humano que não consegue levar o copo de água à boca porque a mão lhe treme cada vez mais com a aproximação da mão ao alvo, é exemplo de

16

Cibernética.indd 16

18-01-2007 17:28:02


um desarranjo dos mecanismos de retroacção, o qual também se encontra nas máquinas (Rosenblueth et al. 1943:19,20). Toda a argumentação do artigo assenta na ideia de que é mais importante estudar o comportamento (qualquer mudança, detectável do exterior, de uma entidade em relação ao que a rodeia) do que estudar a composição e a organização funcional das entidades. Mas isso não pode excluir o estudo da organização interna de uma entidade: “é provável que as limitações da organização interna, particularmente da organização do sistema nervoso central, determinem a complexidade do comportamento preditivo a que um mamífero pode elevar-se”. Exemplo: “uma máquina que tenha de seguir um objecto luminoso em movimento terá não apenas que ser sensível à luz (por exemplo, sendo dotada de uma célula fotoeléctrica), mas ainda que ter a estrutura adequada à interpretação do input luminoso” (Rosenblueth et al. 1943:21). Não parece, assim, que possa pura e simplesmente alinhar-se este texto, de forma simplista, na tendência behaviorista. Sendo claro que partilha pressupostos fundamentais do behaviorismo, que afasta qualquer consideração da “mente” no quadro do estudo do comportamento, também é certo que acaba por colocar em jogo factores que vão ser críticos na ultrapassagem do behaviorismo: admitir que o objecto é capaz de modificar a relação entre estímulo e resposta (por via da retroacção negativa) é o primeiro passo para lançar um olhar sobre o “interior” do objecto e permitir uma interrogação sobre os mecanismos internos que poderão ter um impacte no comportamento observável a partir do exterior. Nesse sentido, este texto pode ser lido à luz de uma tensão que não deixará de mostrar-se no futuro – e que será muito produtiva na indicação de diversificados caminhos para o estudo do artificial. Mas, sem abrir de momento essa reflexão de mais longo prazo, pode mostrar-se essa tensão a vir à superfície durante as Conferências Macy. Vamos aqui apenas trazer um momento de debate que acaba por envolver um dos autores deste artigo, Rosenblueth.

17

Cibernética.indd 17

18-01-2007 17:28:02


A apresentação de Herbert G. Birch à oitava Conferência Macy (1951) trata a questão da comunicação entre animais – mas Birch começa logo por se declarar incomodado com essa forma de falar, porque reconhecer que os animais dispõem de certas formas de interacção não é o mesmo que reconhecer que comunicam. É que, do seu ponto de vista, quando se fala de comportamentos alimentares, de acasalamento ou migratórios, por exemplo, é preciso evitar confundir as similitudes aparentes desses fenómenos com verdadeira comunicação (von Foerster 1952:134). É que a ameba, quando captura uma partícula de comida, só aparentemente (superficialmente) está a fazer o mesmo que um humano que se alimenta. Tal como há uma diferença fundamental entre um humano nómada e um salmão que migra devido a mudanças na endocrinologia e na temperatura bioquímica do seu organismo. Para ilustrar a natureza de reacções que, sendo adaptativas, não podem ser consideradas “comunicação”, dá o exemplo da estrela do mar que, alimentando-se de vieiras, tem a mesma reacção face à presença de uma vieira viva ou à presença de um caldo resultante da cozedura de uma vieira (von Foerster 1952:134-136). Depois discute pormenorizadamente trabalhos contemporâneos sobre as abelhas e a forma como elas indicam umas às outras a localização exacta de alimento, a par de outros trabalhos com insectos sociais. A sua tese, em todos esses casos, é que há explicações para todos esses factos que assentam em características dos organismos envolvidos sem nada necessitarem da atribuição de inteligência a esses animais (von Foerster 1952:143 e 154, por exemplo). Também discute o tipo de coordenação que existe em grupos de animais, como cardumes de peixes nadando e bandos de aves voando harmoniosamente, para considerar que provavelmente isso se pode explicar apenas por certas reacções despoletadas de forma automática face a certas características do ambiente ou dos outros indivíduos do grupo – e anota, com justeza, que nessa medida se estava nessa altura apenas a abrir um campo de investigação (von Foerster 1952:155-156, 165-166).

18

Cibernética.indd 18

18-01-2007 17:28:02


Há um passo do debate sobre esta apresentação que antecipa claramente um tipo de equívoco muito frequente no futuro. Quando Birch explica que uma abelha que descobriu alimento faz a sua dança quando chega à colmeia, mesmo que muitas outras já tenham antes feito a mesma dança remetendo para o mesmo local, um participante pergunta se isso quer dizer que “cada uma que regressa está tão orgulhosa do facto que tem de falar dele”, ao que Birch responde: “Bem, eu não poria as coisas dessa maneira. Qualquer uma que regressa inicia certos comportamentos que excitam certos comportamentos subsequentes da parte das outras abelhas. Ora, eu ficaria orgulhoso disso, mas não sei se será assim com a abelha.” (von Foerster 1952:144-145) A discussão da apresentação de Birch termina com um feroz ataque desferido por Rosenblueth (von Foerster 1952:168-171). Segundo este, a distinção entre o comportamento alimentar da ameba e o do humano é uma distinção falsa e artificial: alimentar-se não é, em qualquer dos casos, mais do que um movimento de um organismo em direcção a alguma coisa que se encontra no seu ambiente – e nesse movimento esse organismo não faz mais do que reagir a certos estímulos com os actos que lhe são determinados pela sua organização como organismo. Rosenblueth opõe-se a que, no estudo da comunicação, se introduzam noções não mensuráveis, tais como inteligência ou mente: “Ninguém pode provar ou infirmar que um animal ou um homem tenha ou não inteligência. (…) A questão da inteligência é algo que se passa na mente. Não vejo que influência pode ela ter no problema da comunicação.” A única coisa relevante, diz, é o comportamento. O termo “mente” é apenas uma “analogia grosseira” e só assim a podemos entender quando falamos de “mentes de outras pessoas”. Não se opõe ao uso de tais “atalhos verbais”, desde que sejam claramente apenas isso: “Quando descrevemos o comportamento de organismos inferiores ou de máquinas (…), usamos termos que podem ser qualificados como mentalistas. Não penso que haja alguma objecção

19

Cibernética.indd 19

18-01-2007 17:28:02


especial a isso desde que seja entendido que os termos são usados meramente por conveniência.” Além do mais, uma definição de comunicação não será desejável se, recorrendo a noções como “antecipação”, “direcção” ou “conteúdo”, se tornar demasiado exacta e fina e assim excluir comportamentos que devem ser incluídos (de animais não humanos e de máquinas). Estabelecendo uma continuidade fundamental entre orgânico e inanimado; introduzindo uma grelha de leitura comum para humanos, animais e máquinas; dando um lugar predominante, na classificação dos comportamentos, à noção de retroacção negativa; introduzindo elementos que irão cavar tensões dentro do behaviorismo predominante – (Rosenblueth et al. 1943) justifica claramente a sua classificação como um dos textos seminais da cibernética. Um modelo lógico para as ideias que tem o sistema nervoso. O outro artigo seminal da cibernética também publicado em 1943 partilha com o anteriormente analisado a dupla qualidade de fundador: por fornecer ideias que serão centrais na abordagem teórica, por ser da autoria de dois dos principais personagens do “movimento”. Este artigo, da autoria de Warren McCulloch e de Walter Pitts, intitula-se “A Logical Calculus of the Ideas Immanent in Nervous Activity” (McCulloch e Pitts 1943). O ponto central da abordagem deste texto é simples: a actividade do cérebro – isto é, a actividade das redes de neurónios – é uma actividade essencialmente lógica que pode ser captada pelo cálculo proposicional. A actividade de cada neurónio é do tipo “tudo-ou-nada”, isto é, dispara ou não dispara (sem meio termo) consoante tenha ou não sido estimulado com intensidade suficiente em função dos impulsos que lhe tenham chegado de outros neurónios através das sinapses. Esse modo de funcionamento do sistema nervoso central garante que a actividade de cada neurónio pode ser representada como uma proposição e que o funcionamento

20

Cibernética.indd 20

18-01-2007 17:28:02


de conjunto de redes neuronais complexas pode ser descrito em termos de lógica proposicional simbólica. O disparo de qualquer neurónio representa uma proposição e, consoante as conexões sinápticas existentes numa rede, assim esse disparo pode representar uma disjunção, uma conjunção,…, enfim, qualquer função lógica (McCulloch e Pitts 1943:19-21). Parece claro que os autores estão apostados no realismo biológico do seu modelo. O artigo começa por dar uma descrição do funcionamento do cérebro humano. Não escondem que alguns aspectos do funcionamento cerebral não são ainda bem compreendidos. É o caso do funcionamento exacto da sinapse inibitória, aquela ligação entre neurónios que, em vez de contribuir para a excitação dos neurónios seguintes, contraria a acção excitatória de outros neurónios. Também assumem que certos aspectos identificados do funcionamento cerebral não podem ser directamente captados pelo modelo que apresentam. É o caso de fenómenos que alteram a forma como uma rede de neurónios executa o cálculo lógico que lhe compete, dando, assim, em momentos diferentes, resultados diferentes para as mesmas proposições de entrada: a aprendizagem, que altera de forma duradoura a organização de redes de neurónios; a facilitação (quando um neurónio está num estado em que é mais facilmente levado ao ponto de disparo) e a extinção (quando um neurónio não pode ser levado a novo disparo, numa espécie de bloqueio momentâneo após um disparo), que alteram de forma temporária a organização de uma rede. Pretendem mostrar, contudo, que o seu modelo foi concebido de modo a não depender dessas especificações. O modelo que propõem deveria, então, alimentar um programa de investigação destinado a determinar que funções lógicas são desempenhadas por quais redes no cérebro e a compreender as redes conhecidas do ponto de vista dos cálculos lógicos que materializam (incarnam, mais propriamente) (McCulloch e Pitts 1943:24).

21

Cibernética.indd 21

18-01-2007 17:28:02


Não vamos aqui entrar nos aspectos mais técnicos do aparato lógico mobilizado (inspirado em Carnap e nos Principia Mathematica, de Whitehead e Russell). Contudo, vamos dar apenas alguns exemplos – seguindo os diagramas que inserimos adiante – e apresentá-los de forma genérica para que se possa ter uma ideia global da abordagem. Para compreender os exemplos dados a seguir (McCulloch e Pitts 1943:36-37), detenhamo-nos um pouco sobre o exemplo B. O esquema representa uma ligação entre três neurónios (que se encontram numerados). As linhas de ligação terminam em pequenas bolas, que representam as sinapses. Abaixo de um determinado limiar, os impulsos transmitidos pelas ligações sinápticas não chegam para transmitir um sinal ao neurónio receptor (o limiar mínimo é representado por duas sinapses em cada aferente). A expressão significa que o neurónio 3 disparará no momento t sempre e quando o neurónio 1 tenha disparado no momento anterior (t – 1) ou o neurónio 2 tenha disparado no momento anterior (t – 1). O esquema representa, pois, uma disjunção incarnada em neurónios no cérebro. O exemplo D exibe outro recurso do modelo: uma sinapse inibitória, que garante que um dos termos da conjunção seja uma negação. O exemplo E mostra a dinâmica temporal que está integrada neste modelo. O neurónio 2 só dispara se o neurónio 1 tiver disparado nos dois ciclos anteriores. No ciclo t – 2, o disparo do neurónio 1 levou ao neurónio 2 um único impulso que, isolado, não faz disparar o neurónio 2. Mas esse mesmo disparo do neurónio 1 fez com que um impulso chegue por duas sinapses ao neurónio auxiliar, excitando-o. Assim, no ciclo t – 1, chegam ao neurónio 2 dois impulsos, um vindo directamente do neurónio 1, outro vindo do neurónio auxiliar que tinha sido excitado no ciclo anterior e portanto dispara neste ciclo. Assim, no ciclo t, o neurónio 2 disparará.

22

Cibernética.indd 22

18-01-2007 17:28:02


Exemplo A N2(t)

Exemplo B

N1(t – 1)

N3(t)

Exemplo C N3(t)

N1(t – 1) v N2(t – 1)

Exemplo D

N1(t – 1) & N2(t – 1)

N3(t)

N1(t – 1) & ¬N2(t – 1)

Exemplo E N2(t)

N1(t – 2) & N1(t – 1)

23

Cibernética.indd 23

18-01-2007 17:28:02


A actividade de um único neurónio num dado momento é designada por “psychon”. Como um psychon só pode ter dois valores (ligado ou desligado, tudo ou nada), essa é a representação ideal da lógica que só reconhece dois valores: verdadeiro ou falso. Assim, é nos termos dessa lógica que deve expressar-se o que tenha a dizer qualquer tipo de psicologia, porque qualquer ideia e qualquer sensação nossa são realizadas com estes meios. Assim, tudo o que tem sido inscrito no domínio do mental deve ser explicado pela neurofisiologia (McCulloch e Pitts 1943:37-38). Comparando a abordagem de Rosenblueth, Wiener e Bigelow (que analisámos antes) com a de McCulloch e Pitts (que acabamos de resumir), diz-nos Dupuy que este último texto é mais radical na via da mecanização da mente: porque enquanto aqueles autores se desinteressam do estudo do espírito para se concentrarem no comportamento, estes procuram uma base lógica e material para o espírito num nível mais baixo, o dos neurónios; porque enquanto aqueles autores estabelecem uma analogia organismo/máquina, estes consideram que os organismos são mesmo máquinas num sentido forte. Nesta concepção, a máquina é um ser lógico-matemático incarnado na matéria do organismo, é uma máquina natural. A questão não é heurística, o modelo não é um instrumento de cálculo: a questão é ontológica (Dupuy 1994: 41-43). De facto, num texto posterior de McCulloch, esse ponto é bem claro, não se dissipou com o tempo, bem pelo contrário: “Tudo o que aprendemos acerca dos organismos leva-nos a concluir não apenas que eles são análogos às máquinas, mas que eles são máquinas. As máquinas feitas pelos homens não são cérebros, mas os cérebros são uma variedade, muito mal compreendida, de máquinas computacionais. A cibernética contribuiu para deitar abaixo o muro que separava o mundo maravilhoso da física e o gueto do espírito” (McCulloch 1955:163) O texto de 1943 foi uma das primeiras pedras dessa construção, que veio a ser assim descrita em 1955.

24

Cibernética.indd 24

18-01-2007 17:28:03


A PRIMEIRA SÉRIE DE CONFERÊNCIAS MACY (1946-1948)

A movimentação intelectual representada pelos dois artigos publicados em 1943, que analisámos antes, começava a traduzir-se numa série de pequenos encontros entre cientistas que, empenhados em diferentes domínios de investigação, se dispunham a explorar de forma interdisciplinar as ideias inovadoras em ascensão. É essa dinâmica que constitui um “grupo” propriamente dito, um grupo cibernético. Não vamos entrar nos muitos e significativos detalhes que essa história comporta. Em vez disso, vamos dedicar uma particular atenção ao mais importante desses encontros, as chamadas “Conferências Macy”, cuja designação deriva do nome da fundação privada que deu o apoio material e logístico necessário à sua realização: a Fundação Josiah Macy, Jr. , de Nova York. Nessa cidade decorreram as primeiras nove das dez conferências. As dez conferências Macy tiveram lugar entre 1946 e 1953, cada uma delas com uma duração de dois a três dias, reunindo um grupo permanente de cerca de vinte cientistas e alguns convidados específicos em cada sessão. Basta considerar os nomes que tiveram intervenção nas conferências Macy, e o seu papel no panorama da ciência americana, para fazer uma ideia do impacte que pode ter tido a sua reunião, durante um período tão alargado, num fórum de debate com estas características. Não vamos aqui fazer esse trabalho: (Heims 1980) e (Heims 1991) são convenientes no fornecimento de uma história do grupo cibernético, útil à compreensão dos debates travados. Steve Heims, em grande parte recorrendo a encontros com testemunhas directas, consegue fazer uma reconstituição muito

25

Cibernética.indd 25

18-01-2007 17:28:03


interessante do grupo e da primeira série de conferências, as primeiras cinco, das quais não existem relatos directos. Existem actas das cinco conferências da segunda série, o que proporciona uma base de trabalho muito diferente – mas trataremos desse ponto um pouco mais à frente. Daremos, antes, algumas indicações sobre as conferências do “primeiro ciclo”. Warren McCulloch, um dos autores de um dos artigos fundadores, presidirá a todas as conferências. McCulloch realizou, durante a década de 1930, trabalhos importantes no domínio do estudo experimental dos cérebros de chimpanzés e macacos, pelos quais procurava identificar percursos funcionais no cérebro através da estimulação artificial (choques eléctricos e químicos) de regiões específicas do córtex e do registo dos itinerários de estimulação assim provocados. McCulloch, que depois se vira para a tentativa de construir um modelo do funcionamento lógico do cérebro, nunca desligou esta abordagem do estudo experimental do sistema nervoso, numa perspectiva de “incorporação da mente” que permanecia fiel à pretensão de realismo biológico. Assim, num certo sentido, antecipa certas orientações inspiradoras da nova robótica (Heims 1991:33-36). É seguindo McCulloch que falamos de “primeira série” e de “segunda série” das conferências Macy. No início da décima (e última) conferência, McCulloch, que presidiu a todas elas, distribuiu um resumo dos pontos que lhe parecia terem merecido o consenso dos participantes durante as nove anteriores conferências. Esse texto (von Foerster 1955:69-80) é revelador das ideias gerais que pareciam mais inspiradoras à generalidade daquele grupo de cibernéticos. McCulloch explica como vê o objectivo geral perseguido pelo grupo – “fomos muito ambiciosos na procura daquelas noções que perpassam todo o comportamento com um propósito e toda a compreensão do nosso mundo: isto é, a base mecanicista da teleologia e o fluxo de informação entre as máquinas e os homens” (von

26

Cibernética.indd 26

18-01-2007 17:28:03


Foerster 1955:70) – e distingue duas grandes fases no amadurecimento dos debates: o primeiro ciclo de conferências (cinco, com periodicidade semestral, entre Março de 1946 e Abril de 1948) e o segundo ciclo (outras cinco, anuais, entre Março de 1949 e Março de 1953). Quanto ao primeiro ciclo escreve: “Os nossos encontros começaram principalmente por Norbert Wiener e os seus amigos da matemática, da engenharia da comunicação e da fisiologia terem mostrado a aplicabilidade da noção de retroacção inversa a todos os problemas de regulação, homeostase e actividade dirigida para um objectivo, desde as máquinas a vapor até às sociedades humanas. As sessões iniciais foram em grande parte dedicadas à clarificação dessas ideias nas nossas cabeças e a descobrir como usá-las nos nossos domínios de investigação tão díspares.” (von Foerster 1955:70) Esta forma de apresentar as coisas é muito clara quanto ao facto de que, desde o princípio, as máquinas e as sociedades humanas são entendidas como pertencendo a um mesmo contínuo de realidades caracterizadas por poderem ser compreendidas a partir das noções de retroacção, regulação, homeostase, teleologia – e essa ideia pede que se procurem ferramentas teóricas que permitam aplicar aquelas noções a várias campos. A entrada das máquinas, dos humanos, das sociedades, num mesmo território de investigação – é algo que transparece em todo este texto. Dois exemplos precisos: “considerámos a máquina de Turing universal como um ‘modelo’ do cérebro, utilizando o cálculo de Pitts e de McCulloch para a actividade das redes nervosas” (von Foerster 1955:76); “as emoções foram consideradas como expressões de um esforço excessivo que fatigou partes do computador, produzindo algo como respostas fixas a entradas difusas e variáveis, como se numa máquina de Turing o valor computado de um operando deixasse de afectar as operações subsequentes” (von Foerster 1955:76). Quando se trata de explicar o vasto uso encontrado para as noções relacionadas com a retroacção (como

27

Cibernética.indd 27

18-01-2007 17:28:03


“ganho” enquanto relação input/output, “regeneração” como resultado de um processo em que o ganho global de um sistema é positivo), diz-se claramente que “estas noções foram aplicadas às máquinas (…) e subsequentemente aos sistemas vivos” (von Foerster 1955:71). E são dados vários exemplos das máquinas que entram nesse conjunto: máquina a vapor e respectivo mecanismo regulador, máquina de leme dos navios, telefone, rádio. Uma comparação fornecida: “demo-nos conta de que circuitos reguladores operando no interior do sistema nervoso se assemelham ao controlo automático de volume dos aparelhos de rádio comerciais” (von Foerster 1955:72). E outros exemplos se poderiam dar, mas este tom é constante e traduz bem o que está documentado acerca dos debates que tiveram lugar nas conferências. Quando McCulloch descreve o segundo ciclo de conferências, mostra-o dominado por outra constelação de temas. Quando o segundo ciclo começa, escreve, “já tínhamos descoberto que o que era crucial em todos os problemas de retroacção negativa em qualquer sistema servo não era a energia de retorno mas sim a informação acerca do resultado da acção exercida até um dado momento. (…) Tornou-se claro que qualquer sinal tem dois aspectos: um físico e o outro mental, formal ou lógico. Isto orientou a nossa atenção para as máquinas computadoras, para a armazenagem de informação como entropia negativa.” (von Foerster 1955:70) Que esta mudança de ponto de vista esteve no centro da aventura intelectual daquele grupo, é resumido mais à frente: “acabámos por compreender todos que, para os problemas de retroacção, o que tínhamos de ter em consideração não era a energia. A variável crucial era claramente a informação.”( von Foerster 1955:75) O texto continua, depois, a explicar como o grupo se dedicou a fazer uma aplicação generalizada e variada do conceito de informação. Um exemplo: “Gastou-se um tempo considerável a discutir como é que o fluxo de informação determina a estrutura dos grupos e a discutir como é que a posição de comando numa rede se vai movendo com

28

Cibernética.indd 28

18-01-2007 17:28:03


o tempo para aquele ponto em que se concentrou mais informação necessária à acção. Em máquinas de processamento paralelo, incluindo os cérebros, quando uma parte está sobrecarregada ou danificada, outra parte fará o mesmo trabalho computacional.” (von Foerster 1955:78) Aqui, sem perder de vista a analogia entre o humano e a máquina, aponta-se para uma interpretação da sociedade em termos de redes e de informação: o poder é explicado pela informação e sua distribuição em função das necessidades da acção. Mas há, mesmo neste pequeno texto quase de encerramento, outros sinais das ambições do grupo quanto à concepção que tinham do que seria a desejável compreensão do humano e do social. Por exemplo, escreve McCulloch a certo ponto do seu relato que os psiquiatras e os psicólogos “gostariam de ter algum padrão comum de medida para os desejos humanos, comparável ao que os economistas julgam ter na doutrina da utilidade marginal e do preço num mercado aberto” (von Foerster 1955:74). Temos, portanto, segundo um actor chave no grupo cibernético, uma divisão clara entre dois ciclos de conferências Macy. O ano de 1948 separa – não exactamente do ponto de vista cronológico, mas do ponto de vista do encadeamento das ideias – os dois ciclos de conferências. A mudança de perspectiva que McCulloch identifica é claramente marcada por vários desenvolvimentos que se concentram nesse ano de 1948, como veremos mais à frente. Antes disso, no entanto, daremos ainda algumas indicações sobre esta fase inicial das conferências cibernéticas. Em vista do papel que vão ter as “máquinas de computação” nos debates deste grupo, convém mencionar brevemente que nesta altura os modernos computadores digitais se encontram ainda na primeira infância. Só em 1945 von Neumann redigira A First Draft of a Report in the EDVAC, em que pela primeira vez é exposta de forma exequível a separação entre a parte material (hardware) e a parte lógica (software) do computador, sendo que até aí o funcionamento lógico da máquina estava fixamente mate-

29

Cibernética.indd 29

18-01-2007 17:28:03


rializado na sua própria construção. Nesta fase, portanto, o fascínio pelo computador não é explicável em si mesmo como fascínio pelo seu desempenho visível: a larga maioria dos cibernéticos não tinha tido qualquer contacto sério (ou contacto, de todo) com um computador desse género. As ideias vão à frente da sua realização técnica (o que não é de espantar, mas por vezes se esquece quando se menciona a “metáfora do computador”). Nesta fase, von Neumann está de facto a produzir alguns dos avanços mais notáveis da informática como indústria, a par da produção de teoria acerca do significado teórico dessas possibilidades. A manhã do primeiro dia da primeira conferência Macy (8-9 de Março de 1946) é ocasião para von Neumann apresentar o computador digital e para Lorente de Nó apresentar o sistema nervoso e as suas capacidades de computação, na linha da abordagem (McCulloch e Pitts 1943) – isto é, descrevendo os neurónios como elementos de uma máquina de carne. Fica assim introduzido um paralelismo que vai evoluir para uma metáfora central em muita investigação sobre a mente. Na tarde do mesmo dia, Wiener e Rosenblueth introduzem os temas do seu artigo de 1943 e desenvolvem o tema da causalidade circular: se A realiza alguma acção com efeito em B, isso não será sem que A também seja afectado. No segundo dia, von Neumann faz uma apresentação da sua “teoria dos jogos” e respectivas aplicações à economia. Ficam assim lançados, desde o início, alguns dos temas que alimentarão a primeira série de conferências. Há um aspecto do enquadramento social e político destas conferências que devemos aqui mencionar, porque ajuda a explicar quer certas facetas da constituição do grupo cibernético, quer certas linhas da temática. O ambiente é de pós-guerra. Os EUA tinham saído vencedores da II Guerra Mundial e a comunidade científica tinha claramente dado um contributo relevante para esse desfecho. Os cientistas não tencionavam desperdiçar esse capital de confiança – e a admi-

30

Cibernética.indd 30

18-01-2007 17:28:03


nistração não tencionava desperdiçar esse capital de prestígio. O ambiente político, num período inicial da “guerra fria”, era claramente marcado por um controlo ideológico da opinião e mesmo pela perseguição de certas ideias e certas pessoas. Esse elemento, associado ao facto de muita da investigação ser fortemente financiada pelas forças armadas e estar sujeita a restrições de confidencialidade, acabou por condicionar as conferências Macy. Heims (1991) marca esse ponto claramente. Lembra que, apesar de o próprio título das conferências (o título variou ligeiramente, mas aquele que surge na publicação das actas da segunda série é “Cybernetics. Circular Causal, and Feedback Mechanisms in Biological and Social Systems”) mostrar a pretensão de lidar com as ciências sociais, não houve convites a cientistas políticos nem a economistas. A ciência e a tecnologia da cibernética apareciam, ao gosto dominante no tempo, como apolíticas, neutras, objectivas. Convenientemente, o modelo McCulloch/Pitts lidava apenas com mentes individuais, não com sociedades. Também convenientemente, o trabalho de Wiener, Rosenblueth e Bigelow, as noções da teoria da comunicação e a teoria dos jogos, eram aplicáveis à sociedade, mas assentavam numa concepção focada no indivíduo. A única excepção foi a comunicação de Theodore Schneirla, na segunda conferência, que estuda uma sociedade como um todo: uma sociedade de formigas que comunicam por contacto químico e táctil. Assim, segundo Heims, por um lado, “o enviesamento para a psicologia e a psiquiatria em vez da economia e da ciência política como representantes das ciências sociais é uma manifestação do atomismo social e da tentativa de afastar os temas políticos” (Heims 1991:18); por outro lado, “o esforço foi sempre para dar uma forma matemática, para simular numa máquina, ou de qualquer outra forma que parecesse engenharia, quando se falasse de qualquer coisa humana, mesmo o sentimento mais pessoal” (Heims 1991:179). Assim, tanto o enviesamento mecanicista como o enviesamento psicologista serviram para despolitizar as questões.

31

Cibernética.indd 31

18-01-2007 17:28:03


Vem de longe, pois, e não dá mostras de desaparecer, a tendência de certas correntes das ciências do artificial para tentar disfarçar os problemas genuinamente políticos das sociedades humanas e substituir a sua consideração por vias que fazem abstracção dessa dimensão. Anotarmos aqui este ponto não significa, contudo, qualquer tentativa da nossa parte para atribuir um objectivo político concreto de qualquer natureza ao grupo cibernético enquanto tal ou mesmo a qualquer dos seus membros individuais. Isso, além do mais, seria desrespeitar o facto de que houve efectivas divergências de fundo entre cibernéticos (por exemplo, entre Wiener e von Neumann) acerca da relação entre ciência e poder político. Trata-se, tão só, de anotar, para reflexão, como podem ser enviesados programas de “interdisciplinaridade” que se permitem prescindir de ramos da investigação científica que não satisfaçam certos critérios demasiado estreitos (sejam eles estritamente metodológicos ou mais ligados ao enquadramento social e político).

32

Cibernética.indd 32

18-01-2007 17:28:03


O “ANO CIBERNÉTICO” (1948) No ano de 1948, além da Quinta Conferência Macy (que encerra a primeira série), acontecem pelo menos três outros marcos importantes para o desenvolvimento das ideias cibernéticas: Wiener publica o livro que baptiza o movimento; tem lugar o Simpósio Hixon; Shannon publica os seus primeiros artigos sobre a teoria matemática da comunicação. Vejamos agora aspectos do impacte de cada um desses factores. Wiener publica Cybernetics Um dos factos que levam alguns autores a falar de 1948 como “o ano cibernético” consiste na publicação do livro de Norbert Wiener, Cybernetics, or Control and Communication in the Animal and the Machine (Wiener 1948). É na introdução a esta obra que o movimento encontra o seu baptismo: a designação de “cibernética”, inspirada no termo grego para “homem do leme”, é indicada para nomear “todo o domínio da teoria do controlo e da comunicação, seja na máquina ou no animal” (Wiener 1948:19). Essa designação aparece, num programa de investigação que se concebe como essencialmente interdisciplinar, justificada por estar na confluência de muitos caminhos: desde as investigações em máquinas de computação até às de desenvolvimento da artilharia anti-aérea, passando pela engenharia da comunicação; desde a noção de entropia na mecânica estatística e a sua relação com a (des)organização de um sistema, até ao contributo de Schrödinger (O que é a vida?) para a ideia de que a física pode explicar a biologia, passando pela ideia da lógica formal como esquema de com-

33

Cibernética.indd 33

18-01-2007 17:28:03


preensão da racionalidade humana; desde a aproximação entre a neurofisiologia e a teoria dos autómatos, até à teoria dos jogos como modelização das relações entre membros de uma sociedade, passando pelo projecto de desenvolver próteses para substituir membros paralisados ou amputados do corpo humano. Essa introdução a este livro, onde surge esta designação de “cibernética”, é um texto que espelha de forma muito nítida a ambição do projecto, tanto na vastidão do seu fundamento filosófico como na ânsia de realizar – uma e outra possibilitadas, como Wiener explicita, pela oportunidade única de trabalho interdisciplinar proporcionada pelas necessidades da participação americana na II Guerra Mundial (Wiener 1948:8-9). Esse programa desdobra-se a cada capítulo do livro, de uma forma que aqui só podemos retratar muito resumidamente. No capítulo I, Wiener faz uma longa digressão pelo problema da direcção do tempo, como requisito de um mundo no seio do qual possamos comunicar; posiciona o estudo dos autómatos como um ramo da engenharia da comunicação: “Em tal teoria, lidamos com autómatos efectivamente acoplados com o mundo exterior, não apenas pelo seu fluxo de energia, o seu metabolismo, mas também por um fluxo de impressões, de mensagem recebidas, e um fluxo de acções, de mensagens enviadas” (Wiener 1948:54); considera que o estudo dos autómatos serve igualmente a descrição fisiológica dos humanos (Wiener 1948:55). Certos aspectos desta análise são aprofundados do ponto de vista técnico no capítulo II, onde relaciona entropia com organização de um sistema, bem como no capítulo III, onde se desenvolvem elementos de uma teoria da comunicação centrada no conceito de informação. O capítulo IV desenvolve um dos conceitos mais representativos da temática cibernética: o conceito de retroacção. A noção de retroacção envolve um circuito: transmissão de informação, retorno de informação para controlo dos efeitos, comparação com os efeitos pretendidos e produzidos. Essas cadeias de retroacção po-

34

Cibernética.indd 34

18-01-2007 17:28:04


dem acontecer em sistemas contendo ou não humanos como componentes. O funcionário responsável pelo controlo da circulação ferroviária numa estação não se limita a enviar comandos para as mudanças de agulha: também recebe informação de retorno para saber se tudo está a funcionar segundo os seus comandos ou se alguma avaria coloca o material circulante em perigo. Um exemplo puramente mecânico é o do “regulador” de James Watt para motores a vapor.

O regulador de Watt figuras retiradas de http://www.geocities.com/Athens/Acropolis/6914/regole.htm

O regulador tem duas esferas pesadas, montadas em braços flexíveis que podem subir e descer (conferir figuras). Os braços estão ligados à válvula do vapor, fechando-a/abrindo-a mais ou menos consoante a sua posição. Todo o conjunto gira com o movimento do motor. Se o motor ganhar velocidade excessiva, a força centrífuga dirige as esferas para fora em círculos cada vez mais largos, o que abre (levanta) os braços, o que fecha progressivamente a válvula do vapor: obtém-se assim a redução da velocidade de rotação. Se o motor rodar demasiado lentamente, as esferas caem, o que fecha os braços, o que abre mais a válvula e deixa passar

35

Cibernética.indd 35

18-01-2007 17:28:04


mais vapor, o que aumenta de novo a velocidade. O regulador mantém, assim, a velocidade do motor dentro de certos limites, sem qualquer intervenção exterior. Trata-se de um mecanismo de retroacção negativa, porque a retroacção tende a contrariar o que o sistema estava a fazer antes. Há vários tipos de mecanismos de retroacção negativa: para estabilizar a velocidade, a temperatura, a posição (como no leme de um navio) – e também a actividade voluntária. Wiener dá vários exemplos de aplicação do conceito ao ser humano, para explicar doenças (Wiener 1948:135). No capítulo V, a caracterização do sistema nervoso como essencialmente capaz de realizar o trabalho de uma máquina de computação assente na lógica booleana, graças ao funcionamento “tudo-ou-nada” dos neurónios, leva Wiener a considerar o computador e o cérebro como duas instâncias de uma máquina lógica (Wiener 1948:147). Aliás, acrescenta invocando Turing, é a lógica da máquina que nos pode ser útil para melhor compreender a lógica humana (Wiener 1948:149). Debruça-se especificamente sobre a questão: como pode a máquina realizar a característica humana por excelência que consiste na capacidade para aprender. Avança uma hipótese acerca de como responder a essa questão. Trata-se de partir do mecanismo do reflexo condicionado, tal como proposto por Pavlov, e acrescentar um mecanismo de modulação afectiva. O mecanismo assentaria numa escala indo do negativo “dor” ao positivo “prazer”; os valores mais ou menos positivos ou negativos nessa escala afectiva estariam directamente relacionados com o valor de cada situação para a perpetuação da raça; numa determinada situação, um aumento dos valores de “prazer” favoreceria de forma duradoura os processos que estivessem a decorrer no sistema nervoso nessa ocasião, tendendo a fixá-los; uma variação no sentido da “dor” tenderia a inibir os processos a decorrer nessa altura. Haveria vários mecanismos de modulação afectiva, especializados, que seriam combinados por um mecanismo geral integrador. No seu conjunto, o sistema de modulação afectiva

36

Cibernética.indd 36

18-01-2007 17:28:04


seria considerado como um mecanismo de retroacção (Wiener 1948:149-151). É a fechar este capítulo que se reafirma uma vez mais a predominância do conceito de informação: “Informação é informação, não é matéria nem energia. Nenhum materialismo que não admita isto pode sobreviver nos nossos dias.” (Wiener 1948:155) No capítulo VI, Wiener vai dar uma interpretação em termos de redes de neurónios à teoria lockeana das associações de ideias, tentando responder à pergunta: como é que reconhecemos uma cara quer a vejamos de frente, de perfil ou a ¾ ? como reconhecemos diferentes exemplares de uma mesma figura geométrica apesar de terem diferentes dimensões? porque é que vemos caras e animais desenhados nas nuvens? Um elemento interessante que Wiener desenvolve neste capítulo é a relação entre o “ver” e a série de músculos associados, seja para mover alguma parte do sistema visual (o globo ocular, por exemplo) ou para mover todo o corpo. Posteriormente outros autores (por exemplo na robótica) desenvolverão a ideia de que a informação que retiramos da “visão” inclui, além do que habitualmente consideramos “ver”, as memórias dos movimentos corporais associados (por exemplo, para olhar para trás tenho de mobilizar muito mais partes do meu corpo do que apenas os meus olhos). No capítulo VII, no contexto da explicação de patologias do foro psiquiátrico recorrendo a uma comparação explícita entre máquinas e humanos, Wiener compara os mecanismos utilizados nas máquinas de computação para detectar e corrigir erros com as redes de neurónios no sistema nervoso central. Tal como em certos computadores há uma triplicação dos mecanismos necessários para cada operação, para que a avaria de um deles seja ultrapassada de forma correcta pela “maioria” que continua a calcular bem, também parece plausível que esse recurso esteja presente no cérebro. Assim, nenhuma mensagem ou operação importante é confiada a um único neurónio ou a um único mecanismo neuronal:

37

Cibernética.indd 37

18-01-2007 17:28:04


“Tal como a máquina de computação, o cérebro provavelmente trabalha com base numa variante do famoso princípio exposto por Lewis Carroll em The Hunting of the Snark: ‘O que eu te diga três vezes é verdade’” (Wiener 1948:170). O problema da tolerância ao erro dos sistemas de computação virá a ser um elemento importante dos debates em Inteligência Artificial, nomeadamente quando se tratar de medir as vantagens comparativas da IA clássica e do conexionismo. No oitavo e último capítulo, Wiener considera a questão dos processos homeostáticos ao nível da sociedade. O seu ponto de partida é que o elemento estruturador da sociedade é a inter-comunicação dos seus membros, a qual varia de grupo para grupo. Entenda-se que a “comunicação” não depende, em geral, da linguagem, mesmo entre os humanos: a disponibilização de informação em sociedade, que é o que está em causa na comunicação, depende da modificação do comportamento de um indivíduo de forma reconhecível pelos outros com que se relaciona. Assim, num grupo de animais não sociais, há pouca informação no grupo, mesmo que cada indivíduo tenha muita informação, porque pouco daquilo que um elemento faz é detectado pelos outros e influencia o comportamento dos outros. A partir destas considerações, Wiener entra num tom claramente crítico, dizendo que falta à comunidade um processo político que possa ser considerado eficaz de um ponto de vista homeostático. Especificando, diz que a crença generalizada nos EUA de que a livre concorrência num mercado livre seja um processo homeostático, é uma teoria simplista sem apoio empírico. Apelando à teoria dos jogos de von Neumann e Morgenstern, diz que o mercado é um jogo que, se com apenas 2 ou 3 jogadores já é muito complicado, com mais, como nas sociedades humanas é o caso, torna-se indeterminado e instável em extremo, envolvendo coligações, enganos, re-arranjos em que o melhor prémio é para quem saiba escolher o melhor momento para a traição. Daí concluir que este processo não pode de modo nenhum ser considerado homeostático ao nível

38

Cibernética.indd 38

18-01-2007 17:28:04


da sociedade. Mesmo assim não deixa de acrescentar que a “teoria dos jogos”, que assume cada jogador como um ser completamente inteligente e completamente impiedoso, é “uma abstracção e uma perversão dos factos”. Assim, enquanto as pequenas comunidades dispõem de mecanismos homeostáticos que funcionam, a sociedade “moderna” não os tem, também porque aquilo que devia servir esse fim, os meios de comunicação, são manipulados noutro sentido pelos ricos e poderosos, que são os elementos mais “anti-homeostáticos” da comunidade. Wiener termina o capítulo (e o livro) mostrando o seu cepticismo quanto à possibilidade de aplicar com êxito a abordagem científica da cibernética à sociedade – porque as ciências sociais, ao contrário da astronomia ou da física das partículas, lidam com um domínio de fenómenos não suficientemente distantes da escala do observador. Por isso, teremos de nos contentar com o a-“científico” método narrativo do historiador. Os autómatos auto-reprodutores de von Neumann No mês de Setembro do “ano cibernético” (1948), durante uma semana, no chamado “Simpósio Hixon”, dedicado ao estudo da relação entre os mecanismos cerebrais e o comportamento, são intervenientes alguns dos nomes mais marcantes envolvidos no debate geral cujas grandes linhas estamos a tentar identificar. Em (Jeffress 1951) encontramos a transcrição da maior parte das comunicações, bem como parte significativa dos debates que se seguiram a cada uma delas. Não cedemos à tentação de relatar em pormenor esse acontecimento: apenas trataremos de dar uma perspectiva da contribuição de John von Neumann. A sua comunicação intitula-se “The General and Logical Theory of Automata” (von Neumann 1948). Nesta comunicação, von Neumann introduz várias questões que se tornarão centrais nos debates acerca da relação entre o na-

39

Cibernética.indd 39

18-01-2007 17:28:04


tural/humano e o artificial, sendo que muitas delas permanecerão como “temas quentes” por muito tempo: introduz uma comparação sistemática entre cérebro e computador, da qual resulta uma apreciação das razões da incapacidade da máquina para atingir o desempenho do organismo; apresenta o problema da construção de um autómato fiável a partir de componentes susceptíveis de erro; introduz o problema da complexidade em relação com os autómatos capazes de auto-reprodução. Tentemos detalhar um pouco cada um desses aspectos. Neste texto, von Neumannn introduz uma comparação sistemática entre o cérebro humano e o moderno computador digital, dizendo que este é o protótipo daquele (von Neumann 1948:3). Como termo de comparação usa os dois computadores existentes à data, o ENIAC (das forças armadas) e o SSEC (da empresa IBM), na óptica das possibilidades de desenvolvimento dessa forma de construção de computadores. Um dos elementos dessa comparação diz respeito aos aspectos quantitativos. Calcula-se que o número de neurónios no sistema nervoso central seja da ordem dos 1010, enquanto não parece previsível que o número de relés num computador ultrapasse os 104. O volume físico de um constituinte elementar do computador (uma válvula) é maior do que um neurónio cerca de mil milhões de vezes; a comparação entre a energia dissipada por um e outro elemento é da mesma ordem. A velocidade de processamento de uma válvula ronda o milhão de operações por segundo e a do neurónio (contado o tempo de recuperação entre disparos) ronda as 200 operações por segundo, mas, dada a enorme diferença no dispêndio de energia, a válvula é menos eficiente do que o neurónio na ordem do milhão de vezes. Estes números apontam para uma inferioridade substancial do computador em comparação com o cérebro. Mas existem outras razões para essa inferioridade. Uma delas diz respeito aos materiais: o uso de metais na construção do computador implica uma instabilidade mecânica que não existe na matéria viva. Outra diz respeito à incapacidade da máquina para reparar por si

40

Cibernética.indd 40

18-01-2007 17:28:04


própria qualquer avaria que surja, ao contrário do recurso extensivo que os sistemas vivos fazem dessa capacidade (von Neumann 1948:12-15). Embora de natureza diferente, todos os motivos antes apontados para a inferioridade da máquina em relação aos organismos são de natureza física. Mas há um outro factor, esse de natureza intelectual: a falta de uma lógica matemática capaz de responder aos desafios da teoria dos autómatos. Por um lado, a lógica lida com conceitos do tipo “tudo-ou-nada” (pelo que qualquer erro num cálculo vicia tudo o que vem depois desse ponto) e não alcança o conceito de contínuo ligado aos números reais ou complexos. Por outro lado, a lógica é insensível ao aspecto temporal: uma demonstração finita correcta é uma demonstração finita correcta, independentemente do número de passos envolvidos. Mas, pensando na aplicação da lógica aos autómatos, essa característica é problemática: por um lado, porque certos resultados têm de poder ser alcançados dentro de uma certo lapso de tempo (portanto, interessa saber aproximadamente em quantos passos); por outro lado, porque o aumento substancial do número de passos de um cálculo aumenta numa proporção intolerável a probabilidade de ocorrência de erros que tornem o resultado final imprestável. Estas considerações implicam a necessidade de desenvolver a lógica em novas direcções, incluindo o estudo dos modos de obter resultados aceitáveis a partir de uma certa probabilidade de erro no funcionamento das partes elementares do sistema (von Neumann 1948:15-19). Desta forma, von Neumann, inspirado na comparação entre máquinas e organismos, levanta uma questão que se tornará muito importante no futuro: como construir autómatos fiáveis a partes de componentes não fiáveis. Outro dos aspectos interessantes desta comunicação de von Neumann é a sua crítica da teoria das redes neuronais formais, de McCulloch e Pitts. Mesmo decidindo ignorar de momento a possibilidade de que tal teoria não seja realista do ponto de vista biológico, ela apresenta outro inconveniente interessante. O que

41

Cibernética.indd 41

18-01-2007 17:28:04


pretende a teoria de McCulloch e Pitts é que qualquer função lógica que possa ser descrita de forma exaustiva sem ambiguidades é realizável numa rede neuronal finita que pode ser definida. Ora, considera von Neumann, o conceito geral de analogia desafia essa teoria. E vai trabalhar um exemplo. Para começar, “não há dificuldade nenhuma em descrever como é que um organismo pode identificar dois triângulos rectilíneos, que aparecem na retina, como pertencendo à mesma categoria ‘triângulo’” (von Neumann 1948:23), tal como não será difícil alargar a classe a outros objectos que serão identificados como triângulos: triângulos com lados deformados, triângulos incompletamente desenhados, triângulos indicados por um sombreado irregular do seu interior, etc.. Torna-se evidentemente difícil descrever de forma exaustiva toda essa classe de objectos que podem ser instâncias desta analogia. E esta analogia é apenas um espécime da categoria das analogias, a qual verifica este problema. Nestes casos, pode acontecer que um objecto real seja ele mesmo seja a descrição mais simples possível que dele se pode dar – e que, portanto, seja impraticável tentar dar um conceito lógico preciso do mesmo. Nesse sentido, a teoria de McCulloch e Pitts – a tentativa de formular uma rede neuronal capaz de corporizar uma descrição explícita exaustiva – não seria de qualquer utilidade para esses casos: “é possível que o padrão de conexões do cérebro visual seja em si mesmo a expressão lógica mais simples ou a definição desse princípio [analogia visual]” (von Neumann 1948:24). Deste modo, embora se possa considerar que von Neumann subavalia a dificuldade mesmo do exemplo de partida (identificar dois triângulos “perfeitos” enquanto triângulos), o certo é que suscita nesta ocasião uma questão que será um objecto privilegiado de estudo nas gerações seguintes de investigação no domínio da modelação do natural pelo artificial. Por outro lado, von Neumann apresenta uma linha de investigação com grande futuro: a questão da complexidade. A complexidade, que os sistemas naturais exibem numa forma progressiva de

42

Cibernética.indd 42

18-01-2007 17:28:04


que os sistemas artificiais parecem incapazes, é considerada a partir da noção de auto-reprodução e suscita uma proposta de automatização explicitamente inspirada na máquina de Turing universal. A proposta de von Neumann para a construção de autómatos auto-reprodutores tem de ser entendida à luz de um princípio metodológico que foi enunciado desde o início da comunicação: tanto num organismo como numa máquina, há que separar a questão das características de cada uma das componentes da questão da organização global dessas componentes. Pode, assim, deixar-se o estudo de cada uma das componentes a outras disciplinas (fisiologia, química orgânica, físico-química) e dirigir-se o estudo apenas para a estrutura organizativa do todo (von Neumann 1948:2). Assim, tal como a máquina de Turing universal poderia emular qualquer máquina de Turing particular desde que lhe fosse dado o respectivo programa, um autómato reprodutor será capaz de construir qualquer outro autómato relativamente ao qual lhe seja fornecida uma descrição estrutural completa. Isso inclui a construção de autómatos iguais ao próprio autómato construtor (von Neumann 1948:28). Daremos aqui uma descrição do “teorema da auto-reprodução”, como lhe chama von Neumann (von Neumann 1948:29-30)1. Seja um conjunto de componentes de partida: A, B, C e I. O autómato A é um autómato construtor: constrói qualquer outro autómato desde que lhe seja fornecida a respectiva descrição funcional: que elementos o compõem e como se ligam entre si. Essa descrição é designada por instrução ( I ). O processo de construção consiste no seguinte: o autómato construtor está colocado num reservatório onde flutua um grande número de todas as componentes elementares necessárias à execução das instruções que lhe sejam fornecidas; isso é bastante para que A siga e execute as instruções. O autómato B é um autómato copiador de instruções: a sua única capacidade é reproduzir instruções. Existe ainda 1

Os esquemas são da nossa responsabilidade.

43

Cibernética.indd 43

18-01-2007 17:28:05


um mecanismo de controlo C, que é capaz de realizar as seguintes operações: insere as instruções I num autómato construtor A, o que tem como efeito que A construa um novo autómato (seja A1) de acordo com I; insere as instruções I num autómato copiador B, o que tem como efeito que B construa um novo exemplar dessas instruções (sejam I1); separar um novo autómato depois de ter acabado a sua construção, de modo a obter uma nova entidade independente. O conjunto desta operação pode representar-se no seguinte esquema:

Consideremos agora o conjunto de componentes A, B e C. Denotemos esse conjunto por D. Isto é: A+B+C = D. Consideremos uma instrução adequada à produção de um sistema D, designada por ID. O esquema anterior pode ser aplicado nessas circunstâncias, de modo a produzir D1. O esquema seguinte representa essa situação.

44

Cibernética.indd 44

18-01-2007 17:28:05


De forma mais explícita, uma vez que D1 é uma cópia de D, esta situação descreve-se pelo esquema seguinte.

Consideremos agora o conjunto de componentes A, B, C e ID. Denotemos esse conjunto por E. Isto é: A+B+C+ID = E. Consideremos uma instrução adequada à produção de um novo exemplar do sistema E. O esquema seguinte representa essa situação.

Esta situação pode repetir-se:

45

Cibernética.indd 45

18-01-2007 17:28:05


Temos, assim, que E é um autómato auto-reprodutor. von Neumann dá a seguinte interpretação ao seu “teorema” (von Neumann 1948:30-31): ID é o análogo de um gene; B realiza a função fundamental da reprodução: duplicação do material genético; alterações arbitrárias nas cópias de E equivalem a mutações genéticas; é fácil modificar o esquema para que ele, além de reproduzir o mesmo, construa também sistemas diferentes. Por esta via, seria possível construir autómatos que, em vez de serem apenas capazes de construir outros mais simples do que eles, sejam capazes de “complicar” cada vez mais a “complicação” – o que é importante na medida em que a “complicação” até um certo limiar é degenerativa e só se torna auto-sustentada a partir de uma certa complexidade. Não podemos deixar de chamar a atenção para o facto de que vários dos pressupostos das propostas que temos vindo a referir marcam a opção por um certo número de simplificações dos problemas em causa. Por exemplo, o autómato auto-reprodutor acima referido só permite tal descrição porque se decidiu ignorar o problema da composição das componentes e se considerou poder tratar separadamente o problema da estruturação do todo. Outra simplificação importante diz respeito às máquinas analógicas e às máquinas digitais. No texto que temos vindo a analisar, von Neumann dedica bastante espaço a analisar essa questão, o que indicia o facto de nessa altura essa distinção ser ainda pouco corrente mesmo entre cientistas de nomeada. De forma muito resumida, a distinção vem a dar no que se segue. Uma máquina de computação numérica é analógica se nela os números são representados por certas quantidades físicas (intensidade de uma corrente eléctrica ou rotação de um disco medida em graus de arco, por exemplo). Uma máquina de computação é digital se representa os números por dígitos ou certas quantidades discretas, descontínuas (como acontece no ábaco, por exemplo; como acontece pelo simples facto de usarmos o sistema decimal). Uma máquina analógica tem toda a imprecisão que resulta da margem de erro na leitura da

46

Cibernética.indd 46

18-01-2007 17:28:05


quantidade física em causa. Uma máquina digital permite definir com clareza o grau de precisão com que se pretende representar os números (contando pelos dedos, podemos assinalar 2 dedos ou assinalar 3 dedos como representando o resultado de uma contagem, mas não 2,5 dedos; contudo, podemos definir as quantidades discretas ao nível pretendido para atingir outros níveis de precisão: podemos fazer com que 1 dedo represente apenas um décimo da unidade). Ora, von Neumann assinala que num organismo vivo – ou no sistema nervoso central de um animal, por exemplo, uma vez que a distinção entre organismo, sistema nervoso e cérebro aparece como indiferente neste texto – é possível encontrar quer mecanismos digitais quer mecanismos analógicos. Nesse ponto, escreve von Neumann, a comparação entre organismos vivos e máquinas é muito imperfeita – mas, continua, embora consciente dessa simplificação, vai trabalhar com o pressuposto de que os organismos vivos são autómatos puramente digitais (von Neumann 19489-10). O mérito desse posicionamento, dizemos nós, é a sua absoluta transparência. Claude Shannon, a Teoria Matemática da Comunicação e a Informação A noção de informação tem, como referimos, um lugar de destaque na visão do mundo dos cibernéticos. A principal referência, nessa matéria, é Claude Shannon, que publica em 1948 o artigo “A Mathematical Theory of Communication” (Shannon 1948). É necessário que demos um panorama dessa teoria da comunicação, para que possamos compreender qual o conceito de informação que é próprio desse enquadramento. A nossa leitura de (Shannon 1948) foi apoiada pela leitura de (Segal 2003:128-142). Um sistema de comunicação. Shannon define um sistema de comunicação como tendo cinco componentes:

47

Cibernética.indd 47

18-01-2007 17:28:05


(i)

uma fonte de informação, que produz uma sequência de mensagens; (ii) um transmissor, que executa uma determinada operação sobre a mensagem de modo a produzir um sinal que possa ser transmitido através do canal; (iii) um canal, que é o meio usado para levar o sinal do transmissor para o receptor; (iv) um receptor, que executa a operação inversa do transmissor, reconstruindo a mensagem a partir do sinal; (v) um destinatário, a pessoa (ou coisa) a quem a mensagem se dirige. O trabalho da sua teoria matemática da comunicação é representar cada uma dessas componentes como entidades matemáticas. FONTE DE

TRANSMISSOR

RECEPTOR

DESTINATÁRIO

INFORMAÇÃO

sinal

sinal recebido

mensagem

mensagem

FONTE DE RUÍDO

Diagrama de um sistema de comunicação (Shannon 1948)

A unidade de informação. À partida é dada uma definição de unidade de informação. A construção assenta na ideia de que a mensagem que tem efectivamente lugar resulta de uma selecção de entre um conjunto de mensagens possíveis na linguagem simbólica usada. Se o número de mensagens nesse conjunto é finito, podemos usar a função logarítmica para obtermos uma medida da informação produzida quando uma mensagem é escolhida desse conjunto, todas as escolhas tendo igual valor de probabilidade (sendo equiprováveis). O que é a função logarítmica? O logaritmo

48

Cibernética.indd 48

18-01-2007 17:28:05


de x na base y (que se escreve logy x ) é o número z tal que yz = x. Por exemplo, log2 32 = 5 (isto é: o logaritmo base 2 de 32 é 5), porque 25 = 32. Shannon privilegia o logaritmo de base 2, estando essa opção relacionada com a escolha de uma unidade para medir a informação. Escreve que “se se usar a base 2, as unidades resultantes podem chamar-se dígitos binários, ou, abreviadamente, bits (…). Um dispositivo com duas posições estáveis (…) pode armazenar um bit de informação. N desses dispositivos podem armazenar N bits, já que o número total de estados possíveis é 2N e log22N = N ” (Shannon 1948:1). Tentemos por um exemplo simples mostrar o significado disto. Seja o caso que temos 32 caixas ordenadas lado a lado onde podemos esconder um objecto (a localização concreta do objecto é dada pelo asterisco) e que queremos informar outra pessoa da sua localização. |_|_|_|_|_|_|_|_|_|_|_|_|_|_|_|_|_|_|_|*|_|_|_|_|_|_|_|_|_|_|_|_| Para o efeito vamos transmitir uma mensagem numa base binária. A mensagem vai ser portadora da resposta à colocação reiterada desta pergunta: “Se dividirmos a linha de caixas em duas metades e deitarmos a metade esquerda fora, ainda ficamos com o objecto?” Uma resposta “sim” será representada por 1, uma resposta “não” será representada por 0. Fazemos essa pergunta uma vez: dividimos as 32 caixas em dois grupos de 16 e o objecto fica na metade da direita, pelo que assinalamos um 1. |_|_|_|*|_|_|_|_|_|_|_|_|_|_|_|_| Fazemos a mesma pergunta de novo: dividimos as 16 caixas restantes outra vez ao meio e verificamos que se deitarmos fora a metade esquerda ficamos sem o objecto, pelo que assinalamos um 0. Ficamos agora com 10. |_|_|_|*|_|_|_|_| Fazemos a mesma pergunta de novo: dividimos as 8 caixas restantes outra vez ao meio e verificamos que se deitarmos fora a

49

Cibernética.indd 49

18-01-2007 17:28:05


metade esquerda ficamos sem o objecto, pelo que assinalamos um 0. Ficamos agora com 100. |_|_|_|*| Fazemos a mesma pergunta de novo: dividimos as 4 caixas restantes outra vez ao meio e verificamos que se deitarmos fora a metade esquerda ainda ficamos com o objecto, pelo que assinalamos um 1. Ficamos agora com 1001. |_|*| Fazemos a mesma pergunta uma última vez. Dividimos as 2 caixas restantes outra vez ao meio e verificamos que se deitarmos fora a metade esquerda ainda ficamos com o objecto: |*| Assim sendo, assinalamos um 1. Ficamos finalmente com 10011. Neste esquema, a sequência 10011 descreve de forma exacta a localização do objecto. Cada passo da operação admitia dois valores (0 ou 1), as 32 caixas representavam 5 bits. Como vimos antes, esta é uma relação dada pela função logarítmica: log2 32 = 5. Precisámos de 5 bits para transmitir esta mensagem. O valor do conhecimento da posição do objecto é de 5 bits. Tratando de dar representação matemática a cada uma das componentes de um sistema de comunicação, Shannon começa por considerar o caso dos sistemas de comunicação discretos, em que quer a mensagem quer o sinal são sequências de símbolos discretos. Tratará depois dos sistemas contínuos e mistos (mas não iremos aqui tão longe). Dentro da mesma estratégia de separar os casos, começa por considerar o canal de comunicação sem ruído e só depois tratará a questão do ruído. Vamos acompanhar os momentos basilares desse percurso. O canal sem ruído (caso discreto). Um canal discreto é um sistema pelo qual se pode transmitir de um ponto para outro uma

50

Cibernética.indd 50

18-01-2007 17:28:06


sequência de escolhas sobre um conjunto finito de símbolos elementares S1, …, Sn, sendo que cada um dos símbolos Si tem uma certa duração temporal. Por um determinado canal nem todos os símbolos podem ser transmitidos (nem todos são sinais possíveis para esse canal). Querendo poder transmitir qualquer sequência composta por símbolos pertencentes a um determinado conjunto de 32 símbolos elementares, desde que todos os símbolos requeiram o mesmo tempo de transmissão, cada símbolo representa cinco bits de informação (lembremos que log232=5). Se o sistema transmite n símbolos por segundo, diremos que o canal tem uma capacidade de 5n bits/segundo (à taxa máxima). Shannon dá o modo de calcular a capacidade do canal em circunstâncias menos lineares, como os casos em que diferentes símbolos requerem diferentes tempos de transmissão ou em que há outras restrições à construção de sequências de símbolos. Por exemplo, na transmissão telegráfica usando o código morse, os símbolos admitidos serão um ponto (linha fechada durante uma unidade de tempo, seguindo-se linha aberta durante uma unidade de tempo), um traço (linha fechada durante três unidades de tempo, seguindo-se linha aberta durante uma unidade de tempo), espaços entre letras e espaços entre palavras (três e seis unidades de tempo com linha aberta). As restrições relativas a sequências de símbolos poderão passar por determinar estados e, em cada um dos estados, só se permitir a transmissão de certos subconjuntos dos símbolos possíveis. No mesmo exemplo, há dois estados, consoante seja ou não seja o caso que o último símbolo transmitido tenha sido um espaço: se sim, o símbolo seguinte será obrigatoriamente ponto ou traço; se não, qualquer símbolo pode seguirse. Estas características do canal juntam-se à largura de banda no cálculo da capacidade do canal. A fonte de informação (caso discreto). A questão que se coloca aqui é: quanta informação em bits/segundo é produzida numa de-

51

Cibernética.indd 51

18-01-2007 17:28:06


terminada fonte? O ponto principal é o conhecimento estatístico que temos acerca da fonte e o facto de esse conhecimento nos permitir aproveitar melhor a capacidade do canal. Isso consegue-se por via de uma codificação que seja adequada às características estatísticas da mensagem. Um exemplo tratado abundantemente por Shannon é o da língua inglesa. Na Sétima Conferência Macy, Shannon faz uma apresentação (von Foerster 1951:124-128), dedicada à questão da “redundância do inglês”, em que esta questão é tratada. Tomamos essa apresentação do exemplo, mais simplificada do que a de (Shannon 1948). Shannon mostra que o inglês escrito verifica certas propriedades estatísticas que o tornam até certo ponto previsível (por exemplo, certos agrupamentos de duas ou de três letras são mais frequentes do que outros grupos de letras). Para ilustrar o seu ponto, relata uma experiência concreta que consistiu em pôr humanos a prever, uma letra de cada vez, uma determinada frase num determinado ponto de um texto. Para transmitir o resultado da experiência, dá o exemplo de uma frase e do número de tentativas que um indivíduo necessitou para “adivinhar” cada uma das letras constituintes: T H E R E I S N O R E V E R S E O N A MO T O R C Y C L E … 1 1 1 5 1 1 2 1 1 2 1 1 1 1 1 1 1 1 2 1 3 2 1 2 2 7 1 1 1 1 4 1 1 1 1 … 5

7

Para o segmento de frase que se mostra, o que está assinalado para as primeiras cinco letras (“There”) quer dizer que o sujeito da experiência acertou em quatro das letras à primeira tentativa (t, h, e, e) mas só acertou no “r” à quinta tentativa. Shannon explica que isto não tem nada de misterioso. Por exemplo, para explicar a previsão correcta das primeiras três letras à primeira tentativa: a letra que mais frequentemente encabeça uma frase em inglês é o T ; a letra que mais frequentemente se segue ao T é o H ; o trigrama mais frequente é “the”. Assim, o indivíduo que fazia a previsão, a quem

52

Cibernética.indd 52

18-01-2007 17:28:06


tinham sido fornecidas tabelas com as características estatísticas do inglês escrito, fez letra a letra uma previsão completamente conforme a essas tabelas. Os pontos em que a previsão correcta só acontece após muitas tentativas são os pontos onde as estatísticas do inglês escrito nada ajudavam. Em certos pontos, a previsão torna-se fácil por exclusão de partes. Por exemplo, em “motorcycle”, a partir do “c” praticamente estavam excluídas outras possibilidades, embora nesse ponto isso se deva a um aspecto (conhecimento das palavras) para as quais no âmbito da experiência não havia tabelas auxiliares da previsão. Esse aspecto depende inteiramente de outros conhecimentos do indivíduo submetido à experiência. Um exemplo simples e informal para português seria assim: se dermos uma sequência de palavras e soubermos que as duas primeiras são “Eu penso”, é pouco provável que a terceira palavra seja algo como “gato”, mas bastante mais provável que seja algo como “que”. Para Shannon, as regularidades estatísticas deste tipo é que permitem falar da existência de redundância numa linguagem – e essa redundância mede até que ponto é possível, com uma codificação adequada, comprimir essa linguagem. O que Shannon considera interessante do ponto de vista matemático é que, dada a segunda linha acima (informação acerca de como um descodificador, informado das características estatísticas da linguagem, descobre a mensagem) é possível reconstruir, apenas com esse dado, a primeira linha (a mensagem propriamente dita). A chave de codificação/descodificação reside nas características estatísticas da linguagem, que são conhecidas tanto do “codificador” como do “descodificador”. Percebe-se assim porque Shannon diz que podemos pensar numa fonte discreta como geradora de mensagens símbolo a símbolo e que a fonte “escolherá” símbolos sucessivos de acordo com certas probabilidades, em geral dependentes das escolhas anteriores e dos símbolos particulares em questão. Um sistema físico (ou um seu modelo matemático) que produza tal sequência de símbolos, sendo regido por valores de probabilidade, é um sistema regido por um

53

Cibernética.indd 53

18-01-2007 17:28:06


processo estocástico. Podemos, pois, considerar uma fonte discreta como representada por um processo estocástico. No exemplo anterior, a linguagem é encarada como um processo estocástico (diferente de um processo determinístico, onde as escolhas seriam prédeterminadas). Um processo estocástico do tipo descrito é designado matematicamente como um processo de Markov discreto e diz respeito ao encadeamento de eventos em situações com um número finito de estados possíveis, em que as escolhas em cada estado são independentes do passado. No caso geral, existe um número finito de estados possíveis de um sistema: S1, …, Sn; há um conjunto de probabilidades de transição: pi(j) é a probabilidade de que, se o sistema está no estado Si vá a seguir para o estado Sj. Para entender este processo de Markov como uma fonte de informação geradora de mensagens símbolo a símbolo, basta assumir que é produzida uma letra em cada transição de estado. Esse processo pode ser representado num grafo, como o que se reproduz abaixo (Shannon 1948:8). No grafo, os “estados” são representados pelos pontos de junção. São indicadas as letras produzidas em cada transição de estado e as probabilidades de que ocorra cada transição considerada. Por exemplo, a partir do ponto de junção que se encontra “no cume” do grafo, pode ver-se que esse estado é o de um A (as duas setas que convergem para esse ponto representam a produção de A). Pode ver-se também que, a partir desse estado (setas que saem dessa junção) há 0,2 de probabilidade de se produzir um C e 0,8 de probabilidade de se produzir um B.

54

Cibernética.indd 54

18-01-2007 17:28:06


Nestes termos, uma fonte discreta pode ser representada por um processo de Markov. Além disso, as fontes que são representáveis por um processo ergódico são particularmente relevantes para a teoria da comunicação, porque permitem assumir que as frequências médias numa sequência particular suficientemente longa serão representativas da totalidade das sequências possíveis. Entropia de uma fonte de informação. Dada a caracterização de uma fonte de informação (caso discreto) como um processo de Markov, Shannon avança para a noção central de entropia. Começa por colocar-se a seguinte questão: “Suponhamos que temos um conjunto de eventos possíveis cujas probabilidades de ocorrência são p1, p2, … , pn. Essas probabilidades são conhecidas mas isso é tudo o que sabemos acerca de qual evento ocorrerá. Poderemos encontrar uma medida de quanta ‘escolha’ está envolvida na selecção do evento ou de quão incertos estamos acerca do resultado?” (Shannon 1948:10). Um dos elementos centrais da teoria é a resposta a esta questão: a medida proposta é a entropia. Um exemplo rudimentar seria o das possíveis combinações de verdade para uma tríade (000 a 111), cujo espaço permite oito hipóteses (000, 001, 010, 011, 100, 101, 110, 111). Se as hipóteses forem equiprováveis (tiverem todas o mesmo valor de probabilidade) a incerteza desta situação – entropia – é máxima e terá o valor (em bits, a unidade de informação definida) de log2 8 = 3 bits. Se, pelo contrário, soubermos que a probabilidade de ocorrência de qualquer 0 é nula, a entropia é zero, porque só pode dar-se um dos casos (111). O conceito de entropia, tal como é introduzido por Shannon, é dado pela seguinte fórmula, onde H é a entropia e p(i) é a probabilidade de i:

55

Cibernética.indd 55

18-01-2007 17:28:06


A constante K não é essencial, uma vez que representa apenas a unidade de medida em causa. Como alternativa a esta representação sigmática, podemos dar uma representação polinomial (onde vamos ignorar K), assim: H = - [p(1).log p(1) + p(2).log p(2) + … + p(n).log p(n)] A formulação matemática de entropia que Shannon recolhe é devida à mecânica estatística de Boltzmann. A ideia de entropia vem da física e está relacionada com a segunda lei da termodinâmica, segundo a qual os sistemas físicos são crescentemente desorganizados. No quadro do desenvolvimento da termodinâmica, a noção de entropia vem contribuir para a resolução do problema da “direcção do tempo”, porque se observássemos o “filme” do universo poderíamos ordená-lo temporalmente – dos mais baixos para os mais altos valores de entropia (Elkana e Ben-Menahen 1993). Shannon diz claramente que a forma matemática da “sua” entropia (H) é a mesma da entropia de Boltzmann. Para Shannon, H “desempenha um papel central na teoria da informação como medida de informação, escolha e incerteza”. Resume: «chamaremos a a entropia de um conjunto de probabilidades p1, … , pn» (Shannon 1948:11). Nesta acepção, informação e entropia estão directamente relacionadas: a entropia é máxima quando a incerteza é máxima; quanto mais incerteza uma mensagem elimina do ponto de vista do receptor, mais informação essa mensagem transporta. No sentido em que “mais informação” significa “eliminação de mais incerteza”, alguns autores preferem dizer que informação é entropia negativa – embora Shannon (1948) não se expresse nesses termos. Shannon apresenta o caso simples em que só há duas alternativas. A primeira alternativa tem probabilidade p e a segunda alternativa tem a probabilidade q, sendo que q = 1– p. (Por exemplo, a alternativa exclusiva V ou F pode ser um instância deste caso.) Esta situação é representada, como função de p, no seguinte gráfico dado por Shannon. Interpretemos o gráfico como p representando a probabilidade de termos V na alternativa exclusiva V/F.

56

Cibernética.indd 56

18-01-2007 17:28:07


Entropia no caso de duas possibilidades com probabilidades p e (1-p) (Shannon 1948)

Shannon destaca o facto de que H tem as seguintes propriedades interessantes (Shannon 1948:11-12): (i) H = 0 se e somente se todas as alternativas excepto uma têm probabilidade zero. É o caso em que estamos certos do resultado (e, portanto, a informação que recebemos em nada aumenta o nosso conhecimento acerca do resultado). Em qualquer outro caso, H é positivo. (Ver no gráfico acima que H tem valor 0 quando a probabilidade p de termos V é nula ou total, isto é, 0 ou 1.) (ii) H está no seu máximo quando todas as alternativas são equiprováveis. Neste caso, a incerteza acerca do resultado é máxima (nada saberemos de concreto acerca do resultado se não recebermos essa informação). (Ver no gráfico acima que H tem valor 1 quando V tem probabilidade 0,5 – o que quer dizer que F também tem probabilidade 0,5.) (iii) A incerteza de um evento conjunto (evento x,y) é sempre igual ou menor do que o somatório da incerteza de cada

57

Cibernética.indd 57

18-01-2007 17:28:07


um dos eventos individuais (a incerteza do evento conjunto x,y só é igual ao somatório da incerteza de cada um dos eventos individuais x e y se ambos forem completamente independentes um do outro). (iv) Qualquer mudança que vá no sentido da equiprobabilidade das alternativas aumenta H. (v) A incerteza (ou entropia) do evento conjunto x,y é a “incerteza de x” mais “a incerteza de y quando x é conhecido” (entropia condicional). (vi) A incerteza de y nunca aumenta com o conhecimento de x (o conhecimento de x diminui sempre a incerteza de y, excepto no caso em que x e y são independentes). H mede a quantidade de informação por símbolo gerada pela fonte. A entropia de uma fonte de informação discreta (processo de Markov) depende da entropia de cada um dos estados possíveis da fonte (o que está relacionada com as probabilidades de transição de estados). Se o processo de Markov está a operar a uma determinada taxa temporal (ocorrências por segundo) e dissermos que m é a média de símbolos produzidos por segundo, teremos uma medida de quantidade de informação gerada por segundo (H’), assim definida: H’ = mH . Uma série de aproximações a H podem ser obtidas sem estudar toda a “produção” da fonte, mas antes considerando apenas a estrutura estatística de sequências de uma certa extensão. O rácio entre a entropia de uma fonte e o valor máximo da entropia que podia ter uma fonte operando com os mesmos símbolos, é a entropia relativa. A entropia relativa informa sobre a compressão máxima que é possível estando a codificar com um determinado alfabeto. A redundância, definida com estes instrumentos, é o complemento para 1 da entropia relativa, ou seja: redundância = 1 – entropia relativa. Por exemplo, Shannon estima que a redundância do inglês “comum” é de cerca de 50%, o que quer dizer que “quando escrevemos em inglês, metade do que escrevemos é determinado pela estru-

58

Cibernética.indd 58

18-01-2007 17:28:07


tura da linguagem e metade é uma escolha livre” (Shannon 1948:14). De forma grosseira isso quer dizer que, em média, podemos retirar metade das letras a uma frase (em inglês) e a frase continuar a ser completamente compreensível – mas, se retirarmos mais de metade das letras, perderemos parcialmente a mensagem nela contida. Quanto mais uma mensagem está limitada pela estrutura estatística da linguagem usada, menos liberdade de escolha deixa à fonte na construção da mensagem – e maior é a redundância (maior é a proporção de símbolos que são previsíveis apenas por conhecer a estrutura da linguagem, mesmo antes de receber a mensagem). Quanto maior é a redundância, menor é a entropia, menor é a informação (no sentido de Shannon) contida na mensagem. O que é estatisticamente raro é que é informativo: a informação é uma medida de raridade estatística dos símbolos nas mensagens. Nesta medida, “informação no sentido comum” e “informação no sentido de Shannon” são realidades muito diferentes. No sentido de Shannon, quanto mais a mensagem é previamente estruturada, menos informação contém. Na verdade, a questão só pode ser apresentada assim porque a teoria matemática da comunicação abstrai de um facto determinante: o sistema só funciona como descrito porque a estruturação dos dados, o esquema linguístico em que assenta todo o sistema, a informação estatística relevante, tem de estar previamente na posse tanto do transmissor como do receptor (portanto, tanto do lado da fonte como do destinatário da mensagem). Esta abstracção é frequentemente ignorada (ou ocultada) quando se procuram aplicações desta teoria a domínios em que, à partida, essa “falta” seria obstáculo de monta. Codificação e descodificação (representação do transmissor e do receptor). O transmissor executa operações de codificação da mensagem que lhe envia a fonte de informação e o resultado dessa operação será enviado pelo canal; o receptor executa operações de

59

Cibernética.indd 59

18-01-2007 17:28:07


descodificação do sinal que lhe chega pelo canal. Tanto o transmissor como o receptor são transdutores que recebem sequências de sinais de entrada e produzem sequências de sinais de saída. Sejam dois transdutores (1 e 2) ligados entre si: se o transdutor 2 é capaz de operar sobre a sequência de saída do transdutor 1 e recuperar a sequência de entrada do transdutor 1, diz-se que o transdutor 1 é não-singular e que o transdutor 2 é o inverso do transdutor 1. Essa é a situação necessária para termos um transmissor (transdutor 1) e um receptor (transdutor 2) capazes de realizar operações de codificação e descodificação. A importância da codificação na eficiência de um sistema pode ser dada pelo seguinte exemplo (o exemplo em abstracto é de Shannon 1948, pp. 18-19, mas não a sua concretização). Suponhamos que temos de transmitir informação acerca do tráfego automóvel numa estrada, sendo que 50% dos carros em circulação são pretos, 25% são brancos, 12,5% são vermelhos e 12,5% são azuis. A informação será produzida na forma de uma sequência das palavras “preto”, “branco”,”vermelho”,”azul” – uma para cada carro que passa. Consideremos como codificar essa mensagem. Uma hipótese é a seguinte: preto=00, branco=01, vermelho=10, azul=11. Em média, gastamos dois bits para informar cada ocorrência de uma cor. Mas há uma codificação mais eficaz: preto=0, branco=10, vermelho=110, azul=111. Assim, uma sequência de 3 carros pretos, 1 carro branco, 1 carro vermelho e 1 carro azul é representada de forma inequívoca2 por 00010110111. Com esta codificação, passamos a gastar em média apenas 1,75 bits por carro.3 A te-

2

A representação é inequívoca, porque não é preciso separar os códigos de carros diferentes com outro sinal, o que aconteceria, por exemplo, se codificássemos preto=0, branco=1, vermelho= 10, azul=11. 3 50% dos carros pretos x 1 bit = 0,500; 25% dos carros brancos x 2 bits = 0,500; 12,5% dos carros vermelhos x 3 bits = 0, 375; 12,5 % dos carros azuis x 3 bits = 0,375; 0,500+0,500+0,375+0,375=1,750 bits.

60

Cibernética.indd 60

18-01-2007 17:28:07


oria permite demonstrar que para este caso não existe esquema de codificação melhor do que este; permite também determinar a relação entre a complexidade do código utilizado e a compressão da mensagem (em geral, quanto maior a compressão, maior a complexidade do código). A ideia de base é simples: codificar os elementos mais raros com os símbolos mais complexos. O teorema fundamental (para um canal sem ruído). Seja uma fonte de informação com entropia (quantidade de informação emitida pela fonte) H (em bits por símbolo) e um canal com capacidade C (em bits por segundo). O teorema fundamental para um canal sem ruído diz que não é possível emitir a uma taxa média superior a C/H e que, usando o método de codificação mais eficiente, é possível aproximar a taxa de emissão tanto quanto quisermos de C/H. Shannon vê nesta utilização a justificação pragmática da escolha de H como medida da informação (Shannon 1948:16). O canal discreto com ruído. Shannon considera depois um caso de figura diferente: a presença de ruído no canal (Shannon 1948:19ss). Isso significa que o sinal é perturbado durante a transmissão algures entre o transmissor e o receptor, pelo que o sinal recebido não é necessariamente o mesmo que o transmitido. Interessa considerar duas formas em que isso pode acontecer: se a um determinado sinal emitido corresponde sempre um determinado sinal recebido, trata-se de distorção. Essa distorção é representada por uma função e, se essa função tem um inverso, a distorção pode ser corrigida por uma operação efectuada pelo receptor. O caso mais interessante é, contudo, outro: quando existe ruído, isto é, uma perturbação regida por uma variável aleatória. A fonte de ruído junta-se à fonte de informação no sentido em que o ruído vai participar no sinal que chega ao receptor. O problema do engenheiro de comunicações é, então, o de reconstruir a mensagem original. Não vamos entrar na caracterização que Shannon faz de

61

Cibernética.indd 61

18-01-2007 17:28:07


um sistema de correcção. Diremos apenas que a natureza “paradoxal” da noção de informação proposta por Shannon (“paradoxal” no sentido de contrária ao sentido comum de “informação”) se revela mais uma vez aqui: o ruído no canal, introduzindo incerteza quanto à relação entre a mensagem enviada e a mensagem recebida, aumenta a entropia no sistema – e portanto aumenta a quantidade de informação. Assim, o ruído aumenta a quantidade de informação. Teoria matemática da comunicação, informação e semântica. Parece evidente qual é o domínio de interesses de Shannon ao apresentar a teoria matemática da comunicação. Lendo o seu artigo seminal (e sabendo que ele já tinha anteriormente relacionado os conceito booleanos de verdade e falsidade com a organização de circuitos electrónicos) compreende-se porque é Shannon considerado um dos precursores da era digital dominada pelas telecomunicações e pelo processamento da informação. Mesmo sem termos entrado em muitos dos detalhes técnicos do artigo de Shannon, é possível entender, pelo que ficou dito, o interesse prático desse trabalho. Contudo, o conteúdo desse trabalho tem pouco a ver com muitas utilizações que dele se fazem. Um ponto central, aí, é a semântica. Shannon é muito claro, logo no segundo parágrafo do seu texto: “O problema fundamental da comunicação consiste em reproduzir num ponto, de forma exacta ou aproximada, uma mensagem seleccionada noutro ponto. Frequentemente as mensagens têm sentido; quer dizer, referem-se a ou estão correlacionadas de acordo com algum sistema com certas entidades físicas ou conceptuais. Esses aspectos semânticos da comunicação são irrelevantes para o problema de engenharia.” (Shannon 1948:1) Shannon insistirá muitas vezes neste ponto. O facto de não existir uma dimensão semântica na noção de informação contida na teoria matemática da comunicação nun-

62

Cibernética.indd 62

18-01-2007 17:28:07


ca deixou de ser sublinhado desde o início. O texto original de Shannon foi republicado em livro logo no ano seguinte (Weaver e Shannon 1949). Nessa ocasião, num texto (Weaver 1949) que tem o objectivo de fornecer um enquadramento dos problemas dos estudos analíticos da comunicação, Warren Weaver considera que “comunicação” diz respeito a todo o comportamento humano – porque, numa forma ou noutra, estão sempre actuantes procedimentos pelos quais uma mente pode afectar outra –, bem como toda a operação pela qual um mecanismo afecta outro mecanismo. Weaver distingue três níveis de questões relativas à comunicação: (A) problema técnico: com que fidelidade podem os símbolos ser transmitidos; (B) problema semântico: até que ponto os símbolos transmitidos transportam o sentido intencionado; (C) problema da eficiência: em que medida o sentido captado afecta a conduta na forma desejada. Quando Weaver passa à apresentação da teoria de Shannon, reduz o seu alcance claramente ao nível A – embora sugira, mais à frente, que o modelo proposto por Shannon pode ser útil para avançar para a análise dos níveis B e C, desde que lhe sejam acrescentadas outras componentes. Já vimos antes que Shannon fez uma apresentação sobre a redundância do inglês durante a sétima conferência Macy. Mais uma vez, aí, Shannon insiste: começa a sua apresentação chamando a atenção para um equívoco que hoje se tornou clássico na interpretação da sua teoria matemática da comunicação. Dirigindo-se a um grupo de composição muito heterogénea quanto às áreas disciplinares de investigação, diz: “Em engenharia da comunicação encaramos a informação de forma talvez um pouco diferente de vós. Especificamente, nós de modo nenhum nos interessamos pela semântica ou pelas implicações da informação para a significação. Para o engenheiro de comunicação, informação é algo que ele transmite de um ponto para outro tal como lhe é entregue, podendo não ter de todo qualquer significação. Pode tratar-se, por exemplo, de uma sequência aleatória de dígitos, ou pode ser

63

Cibernética.indd 63

18-01-2007 17:28:07


informação para um míssil guiado, ou sinal de televisão.” (von Foerster 1951:123) Acrescenta: “Para o trabalho de comunicação abstraímos de todas as propriedades da mensagem excepto as propriedades estatísticas (…). O que a mensagem significa não tem qualquer importância para [o engenheiro de comunicação]”(von Foerster 1951:123). No entanto, passado pouco tempo o debate já descarrilou, com a confusão sobre esse ponto perfeitamente imbricada nos pressupostos de várias intervenções. Outros participantes sentem a necessidade de lembrar que está a abusar-se das noções introduzidas por Shannon. É o caso de Teuber (von Foerster 1951:140) ou de Savage (von Foerster 1951:146). Mas essa confusão não deixará de se amplificar com o tempo. Após a apresentação de Shannon, durante o debate vários participantes chamam a atenção para os limites da sua abordagem, desde que se pretenda levá-la para lá da “engenharia da comunicação” e aplicá-la à comunicação humana. Uma das formas dessa chamada de atenção é a valorização da “redundância” na comunicação humana, criticando o objectivo de a reduzir o mais possível. Diz Savage, por exemplo: “Quando te casares, diz à tua mulher na manhã do teu casamento ‘Querida, eu amo-te. Amar-te-ei eternamente, diga eu o que disser ou faça o que fizer a partir de agora. Lembra-te: amo-te para sempre.’ Se nunca voltares a falar-lhe no assunto, verás o que acontece.”(von Foerster 1951:149) No entanto, Savage admite que isso aponta para uma dimensão que já não é informação num sentido próprio da palavra, porque não diz respeito a questões de facto. Já Bavelas, por exemplo, renega essa distinção, porque “uma mudança na segurança emocional pode ser definida como uma mudança das probabilidades subjectivas do indivíduo” (von Foerster 1951:150). O debate prometia, para além dos limites daquela conferência, como bem previu Licklider, que afirmou: “É provavelmente perigoso usar esta teoria da informação em domínios para os quais ela não foi projectada, mas parece-me que o perigo não vai fazer

64

Cibernética.indd 64

18-01-2007 17:28:08


com que as pessoas evitem esse uso.” (von Foerster 1951:155) Nesse ponto parece ter acertado. A questão da “insuficiência para a semântica” da teoria de Shannon voltará várias vezes a aflorar nos debates das Conferências Macy. Na última apresentação da oitava Conferência, Donald MacKay, da Universidade de Londres, apresenta uma teoria da informação para fazer justiça ao nosso entendimento “comum” dessa noção (recebemos informação quando sabemos depois disso algo que não sabíamos antes) e que seja suficientemente abrangente para não deixar de fora dimensões como a semântica (von Foerster 1952:181). A noção que propõe como ponto de partida é a noção de “representação”: tudo o que sabemos podemos representar de várias maneiras (figuras, enunciados, símbolos,…) e o efeito de recebermos informação é a modificação das nossas representações. O engenheiro de comunicações assume que o receptor tem armazenada uma certa quantidade de representações e que o sinal que recebe apenas tem de lhe indicar qual delas deve seleccionar – mas esse processo depende de que para o receptor os símbolos utilizados tenham já, com antecedência, sentido para ele. Já no caso da “informação científica” o que se trata é de criar novas representações, com base em dados empíricos recolhidos em experiências organizadas com esse fito. Para MacKay, o mais importante fica de fora da proposta de Shannon (von Foerster 1952:182-185). Durante o debate desta apresentação, outros pontos críticos são suscitados. Por exemplo, Bowman diz que é preciso ter em conta a utilidade da informação, porque dois livros com o mesmo conteúdo, um numa língua que eu compreendo e outro numa língua que eu não domino, têm ambos a mesma informação, mas um é-me útil e o outro não (von Foerster 1952:203). Savage fala mesmo do “cash value” da informação e do facto de esse “cash value” fazer dela uma medida unidimensional que torna comensuráveis coisas muito diferentes como o dinheiro propriamente dito, o número de

65

Cibernética.indd 65

18-01-2007 17:28:08


vidas salvas, mesmo a alegria da descoberta – exactamente como certas teorias económicas propunham (von Foerster 1952:217218). Parece assim claro que a noção de informação sofre desde o início muita violência. Instado, Shannon avança uma definição discursiva de informação, coisa que normalmente evitava: “É preciso nunca perder de vista que [informação] é apenas a medida da dificuldade em transmitir sequências que são produzidas por alguma fonte de informação” (von Foerster 1952:219). Como é sabido, é pouco seguido o seu conselho nesse ponto. A apresentação que o lógico Yehoshua Bar-Hillel faz na décima Conferência Macy (von Foerster 1955:33-48), é uma espécie de resumo de um relatório que Carnap e Bar-Hillel tinham feito para o Research Laboratory of Electronics do M.I.T. em 1952, An Outline of a Theory of Semantic Information (Carnap e Bar-Hillel, 1952). Carnap só não participou nesta conferência por razões de saúde. Bar-Hillel trata de marcar, desde o início, que o trabalho de Shannon nada tem a ver com o conteúdo das mensagens transmitidas, com o sentido, com a semântica – e que o seu trabalho com Carnap, pelo contrário, é precisamente isso que tem em vista. Mas mostra estar bem consciente das confusões geradas em torno desta questão: “Que eu saiba, Claude Shannon é o único grande teórico da informação que se tem consistentemente abstido de extrair inferências indevidas” (von Foerster 1955:33). Bar-Hillel vai apresentar uma concepção formal de informação que considera mais capaz de traduzir adequadamente a noção pré-formal ou intuitiva – apesar de, mesmo assim, estar consciente de que continua a faltar à sua concepção um elemento essencial, que é a dimensão pragmática, a qual deveria incluir tudo aquilo que, no contexto do discurso corrente, o acompanha e também é portador de informação (von Foerster 1955:34,42). A ausência (radical) dessa dimensão pragmática está bem patente quando se explica que se está a considerar um receptor “ideal”, no sentido de “um receptor com

66

Cibernética.indd 66

18-01-2007 17:28:08


uma memória perfeita que ‘conhece’ toda a lógica e toda a matemática e, juntamente com qualquer conjunto de proposições empíricas, todas as respectivas consequências lógicas”. Assim, para esse receptor, a mensagem “17 × 19 = 323” representa uma quantidade de informação igual a zero (Carnap e Bar-Hillel, 1952:3). O linguista Yuen Ren Chao, a quem coube a última apresentação da última Conferência Macy (falou logo a seguir a Bar-Hillel) e se debruçou sobre a questão do sentido na aquisição da linguagem (von Foerster 1955:49-67), faz um comentário interessante sobre este exemplo (o que significa que no debate, que as actas da décima conferência não transcrevem, alguém mencionou esse exemplo do relatório de Carnap e Bar-Hillel que já tinha sido publicado.) Diz Chao: tratando-se de ponderar se a mensagem 17 × 19=323 dá alguma informação ou não, “do ponto de vista da aprendizagem do sentido dos números tal como realmente ocorre, ela dá mesmo muita informação, porque nós temos muita experiência com 17 e com 19, mas talvez não muita com 323; além disso, ela não decorre exclusivamente dos postulados básicos da aritmética. Certamente temos muitas outras formas de contacto com o número 323.” (von Foerster 1955:53) Este comentário de Chao questiona de forma pertinente a investigação assente na “perspectiva ideal”: o receptor ideal, o emissor ideal, talvez mesmo o humano racional ideal. A observação de Chao parece pertinente, porque há sempre muitas coisas que resultam logicamente daquilo que sabemos e que, no entanto, “não sabemos”, no sentido em que não nos são acessíveis a qualquer mobilização que possamos querer fazer dos nossos conhecimentos. Um bom resumo do que separa essencialmente a teoria de Shannon da abordagem de Carnap e Bar-Hillel é dado por esta frase: “Distinguindo-se da actual Teoria da Comunicação que trata a quantidade de informação como a medida da raridade estatística de uma mensagem, é esboçada uma Teoria da Informação Semântica em que o conceito de informação carreada por uma frase declarativa no seio de um dado sistema de linguagem é trata-

67

Cibernética.indd 67

18-01-2007 17:28:08


do como sinónimo do conteúdo dessa frase” (Carnap e Bar-Hillel, 1952:resumo). Bar-Hillel criticará ainda a analogia cibernética entre “entropia” e “informação”, que considera formal e sem qualquer significado empírico e, como tal, enganadora: “Considero completamente inaceitável que o conceito de entropia física, portanto um conceito empírico, seja identificado com o conceito de quantidade de informação semântica, que é um conceito lógico (…)” (von Foerster 1955:47). É possível, contudo, dar ainda outro olhar sobre esta questão: o estímulo que a abordagem proposta por Shannon constituiu para outras linhas de investigação. Daremos apenas um breve exemplo. O psicólogo J.C.R. Licklider apresenta na sétima Conferência Macy uma parte dos seus estudos sobre a inteligibilidade do discurso na comunicação verbal (von Foerster 1951:58-90). A sua questão é basicamente a da relação entre as características físicas do som da voz humana e a sua inteligibilidade. Um aspecto importante das conclusões de Licklider, claramente inspirado por Shannon, é a existência de forte redundância no discurso, que ele demonstra pelo facto de poder mutilar de forma significativa o som da voz (por exemplo eliminando certas faixas de frequências ou modificando a taxa temporal de produção do som) sem desse modo provocar quebra de inteligibilidade. Por exemplo, uma voz arrastada artificialmente pode soar desagradável, mas só com uma distorção extrema se torna menos compreensível. Neste contexto Margaret Mead introduz a questão: a informação que se está a considerar diz respeito apenas ao aspecto declarativo do discurso, mas há outro tipo de informação, aquela que diz respeito às emoções de quem comunica; o tipo de distorção e ruído que Licklider estudou, que efeitos tem sobre este tipo de informação? A discussão que se segue mostra que essa questão nunca se tinha seriamente colocado aos implicados nesses estudos (cf. particularmente von Foerster 1951:100-106).

68

Cibernética.indd 68

18-01-2007 17:28:08


É curioso notar que a questão levantada por Mead volta a ser suscitada no mesmo círculo dois anos depois. Na nona Conferência Macy, durante a discussão da apresentação de Bateson, von Bonin volta ao tema do conteúdo emocional (não informativo) da fala: “Foi demonstrado que é frequente sermos capazes de compreender o estado emocional de uma pessoa mesmo sem compreendermos uma palavra do que ela diz” (von Foerster 1953:12). Segue-se uma discussão do que possa ser entendido como conteúdo informativo transmitido somente pelas características físicas da fala (como o tom), para além do que é articulado. É curioso vermos que a nova robótica voltará a colocar-se essa questão. Esta passagem por alguns aspectos do debate das Conferências Macy ilustra bem as palavras do seu presidente: o tema da informação esteve muito presente na segunda série destes encontros. Passemos em revista, então, outros grandes temas da segunda série de conferências Macy.

69

Cibernética.indd 69

18-01-2007 17:28:08


A SEGUNDA SÉRIE DE CONFERÊNCIAS MACY (1949-1953)

Graças à existência de actas das conferências que tiveram lugar entre 1949 e 1953, é possível seguir com um detalhe assinalável a evolução dos debates cibernéticos. As referidas actas transcrevem as apresentações e as discussões que se lhes seguiam. Optámos por dar aqui um tratamento relativamente extenso deste material, por várias razões: pela riqueza com que expõe o confronto entre um conjunto de cientistas de topo que durante vários anos se dedicam a explorar ferramentas intelectuais que pudessem tornar-se comuns; pelo significado de um material em que, ao lado de comunicações mais ou menos formais, se expõe a polémica com uma vivacidade que normalmente não passa para os textos finalizados; pela capacidade que este material tem de revelar “a atmosfera” desta corrente de pensamento científico. Só um estudo muito completo (a que não poderíamos abalançar-nos) da produção bibliográfica dos cientistas presentes nestas conferências poderia dar um equivalente razoável desta leitura. Por essas razões empreendemos tal tarefa e dela damos seguidamente relato – se bem que apenas em alguns tópicos que considerámos mais relevantes. Uma razão adicional para esta opção reside na acessibilidade difícil das mencionadas actas (apesar do interesse que têm suscitado recentemente). Unificar: a ciência; o natural com o artificial; o homem, o animal e a máquina Se há algo que se impõe numa leitura das actas da segunda série de conferências Macy é o projecto da cibernética para a unificação

70

Cibernética.indd 70

18-01-2007 17:28:08


da ciência, unificação essa à qual se chegaria num processo assente na unificação dos estudos do natural e do artificial, traduzindo a colocação, num mesmo plano de continuidade, do homem, dos (outros) animais e da máquina. Esse ponto é muito bem sublinhado numa nota introdutória (datada de 1952), inserida no volume de actas da oitava conferência e da responsabilidade da equipa editorial: Heinz von Foerster, responsável pela edição, e os seus parceiros nesse trabalho, Margaret Mead e Hans Lukas Teuber. Os editores lembram a natureza transdisciplinar do grupo e do seu modo de trabalhar e explicam que o principal benefício que daí se retira – a possibilidade de contrariar a separação entre as ciências naturais e as ciências sociais – fica a dever-se à existência de problemas unificadores: a comunicação e os mecanismos auto-integradores (von Foerster 1952:xi). Fazem, depois, breves mas muito significativas considerações acerca da orientação geral daquele grupo cibernético. Identificam o que consideram ser os dois principais modelos conceptuais que alimentam esse impulso transdisciplinar que transcende a barreira entre ciências naturais e sociais: a teoria da informação e a noção de causalidade circular. Quanto à teoria da informação, depois de ter recebido um tratamento matemático, permite conceber a “ordem” (informação) como uma estrutura improvável arrancada à estatisticamente mais provável “desordem” (ruído) – e, nesse sentido, informação é entropia negativa. Esta noção, que se aplica tanto a uma máquina que funciona com cartões perfurados que codificam certas instruções, como na compreensão da genética, pode ser mobilizada em múltiplos domínios: compreensão da estrutura da linguagem, dos organismos, dos grupos sociais, dos sistemas mecânicos, dos autómatos modernos (computadores), do sistema nervoso (von Foerster 1952:xiii-xiv). Quanto à noção de causalidade circular, defende-se que ela permite explicar sistemas cujo funcionamento não era compreensível à luz da noção clássica de causalidade unidireccional, em espe-

71

Cibernética.indd 71

18-01-2007 17:28:08


cial os sistemas que se auto-regulam ou auto-reproduzem, de que são dados como exemplos: a regulação do “milieu interieur” dos nossos corpos (a homeostase), a integração dos grupos sociais, a ecologia dos ambientes naturais (von Foerster 1952:xiv-xv). Neste quadro, particular relevo é dado ao poder explicativo dos modelos de circuitos neurais que, quer do lado da neurofisiologia (estudando o cérebro biológico humano), quer do lado da lógica (estudando como poderiam funcionar neurónios ideais artificiais), tinham vindo a ser investigados (von Foerster 1952:xvi). Considera-se de muito interesse esse estudo que coloca em paralelo os sistemas naturais e os sistemas artificiais (seja o computador, sejam os dispositivos de artilharia anti-aérea que “seguem” o alvo de forma a prever a sua posição num momento futuro, sejam em geral os mecanismos de retroacção e os servomecanismos) (von Foerster 1952:xvi-xviii). Nesse quadro, é feita uma observação muito precisa acerca do estatuto epistemológico desses modelos artificiais: “Todos sabemos que temos de estudar o organismo, e não os computadores, se queremos entender o organismo. (…) Mas o robot de computação fornece-nos analogias que são úteis até ao ponto em que funcionam, e que não são menos úteis quando já não funcionam.” Essa utilidade consiste em sugerir experiências (von Foerster 1952:xviii-xix). Esta nota introdutória expressa formalmente o que por vezes transparece de forma mais colorida nos debates ao vivo. Vejamos, a título de exemplo, um excerto de debate durante a sexta conferência (von Foerster 1950:150): McCulloch: “Eu apaixono-me por máquinas e por certas máquinas em particular. E eu sou um marinheiro e sei que quase todos os marinheiros se apaixonam por um barco e esse barco torna-se tão único como uma pessoa, identificado da mesma maneira que os nossos semelhantes nos identificam a nós. Não vejo qualquer dificuldade no facto de a outra máquina ser um homem em vez de ser feito de rodas ou de tela.

72

Cibernética.indd 72

18-01-2007 17:28:08


Mead: “Mas o barco não se apaixona por si.” McCulloch: “Não estou certo disso.” Um exemplo mais sério do tipo de estudos e de debates suscitados por este enquadramento é dado pela primeira apresentação da Sexta Conferência, que cabe a John Stroud. Stroud coloca-se a seguinte questão: “(...) no disparo de uma peça de artilharia temos que usar operadores humanos para tomar determinadas decisões, mas hoje em dia temos que disparar essas armas muito rapidamente. (…) Assim temos o operador humano cercado por todos os lados por mecanismos que conhecemos de forma muito precisa e surge a pergunta ‘que tipo da máquina colocámos nós no meio?’” (von Foerster 1950:27-28). A resposta a esta questão é oportunidade para criticar simultaneamente Wiener e a psicologia da Gestalt. Stroud critica a concepção de Wiener segundo a qual o operador humano pode ser descrito como um servomecanismo guiado por retroacção negativa, que funciona orientado pela medição dos seus próprios erros até os corrigir – uma vez que o humano pode continuar uma acção que já está a executar correctamente. A sua explicação alternativa é que um humano elabora espontaneamente “teorias” acerca do mundo e pode orientar-se por elas. É assim que dá uma explicação alternativa do que os psicólogos gestaltistas denominavam “fenómeno phi”, sem ter de aceitar os seus pressupostos: dois eventos, cuja separação temporal seja inferior à nossa capacidade de discriminação, aparecer-nos-ão como um único evento. Por isso não vemos como tal dois pontos luminosos separados envolvidos no “fenómeno phi” – e “vemos” movimento porque temos tendência a formular “teorias” acerca do mundo que nos rodeia. “ (von Foerster 1950:41-42) Este raciocínio e as experiências de base levam Stroud a outra ideia: a de que o sistema nervoso é um computador com um determinado ciclo (um décimo de segundo), uma periodicidade fundamental, e de que esse ritmo de funcionamento é o que determina a

73

Cibernética.indd 73

18-01-2007 17:28:08


duração de um “momento” psicológico(von Foerster 1950:47,51). Acerca desta conjectura, McCulloch comenta: “Então temos algo que funciona na ordem das dez vezes por segundo, e temos um sistema nervoso que tem ideias a uma taxa de mais ou menos dez por segundo” (von Foerster 1950:52, ênfase nosso). Expulsar as teorias psicológicas concorrentes Dupuy (1994:92) escreve que a “filosofia cognitiva” se infiltrou nas ciências como um cavalo de Tróia para dominar a questão da mente, expulsando daí outras filosofias (da consciência, fenomenologia, existencialismo), outras psicologias (behaviorismo, psicanálise) e outras ciências (as ciências sociais e as ciências do homem de orientação estruturalista). As conferências Macy são, de facto, um sinal de que Dupuy interpreta bem. Acabamos, acima, de observar um dos aspectos do ataque à psicologia da Gestalt. Outro momento representativo dessa tensão aparece durante a Sétima Conferência, no debate que se segue à apresentação de Ralph Gerard (von Foerster 1951:39-41). Klüver, perante uma discussão relativa à fisiologia do sistema visual, que estava a ser colocada em termos da distinção analógico/digital, interroga: será este o ponto de vista apropriado para tratar a questão? Para Klüver, o que realmente “vemos” é largamente independente do que se passa na retina, devido ao papel desempenhado pelos sectores do sistema nervoso central responsáveis pela visão – e, sendo assim, é inadequado tentar explicar o que vemos como conjuntos de correlatos da actividade electrofisiológica da periferia do sistema visual. A sua divergência com o tipo de abordagem em apreço é notória na ironia amarga da seguinte expressão, referindo-se ao olho e às estruturas corticais e subcorticais do sector visual do sistema nervoso central: “Perdoar-me-ão por mencionar esta ideia, antiga mas que hoje em dia parece tão radical, de que estas estruturas tenham alguma relação com o ver” (von Foerster

74

Cibernética.indd 74

18-01-2007 17:28:08


1951:40). Claramente, “ver”, no sentido que aqui lhe é dado, é algo que não está fisiologicamente onde os cibernéticos o estavam a colocar – aliás, não é sequer a mesma coisa. De qualquer modo, o isolamento de Klüver no debate, não conseguindo minimamente que seja dada atenção à sua questão, parece ser um bom indicador da incapacidade da psicologia da Gestalt para sobreviver num tempo e num ambiente dominado pela preocupação de traduzir experimentalmente as questões mais ou menos filosóficas que se quisesse fazer aceitar como questões pertinentes. Para, por outro lado, atender ao debate em torno do behaviorismo e da psicanálise, é útil seguir as sessões em que Lawrence Kubie apresenta comunicações (sexta e oitava conferências). A segunda apresentação da Sexta Conferência cabe a Lawrence Kubie, que vai concentrar-se num ataque ao behaviorismo. Para Kubie, a saúde ou a doença psicológica de uma pessoa de modo nenhum é determinável pelo seu comportamento: “O que em última análise determina a normalidade não é o que fazemos, mas por que o fazemos” (von Foerster 1950:64). Muitos neuróticos passam muitos anos sem se revelarem como tal, porque não são confrontados com as situações que revelariam a doença. A normalidade de um comportamento também nada tem a ver com a frequência com que ele se verifica na população: “o facto de 99% da população ter cárie dental não faz com que seja normal ter buracos nos dentes”. É o equilíbrio de poder entre forças conscientes e inconscientes que determina o grau em que um acto, um sentimento ou um traço é normal ou o grau em que é neurótico. Por isso, o objectivo é tentar limitar os territórios em que imperam as “energias” inconscientes e alargar o domínio das motivações e dos objectivos conscientes da vida humana (von Foerster 1950:74). Kubie ajusta-se a uma das metáforas preferidas dos cibernéticos ao caracterizar o comportamento neurótico obsessivamente repetitivo como susceptível de ser descrito pela noção de circuitos reverberantes e por relações de retroacção (von Foerster 1950:74). Isso não impedirá McCulloch

75

Cibernética.indd 75

18-01-2007 17:28:08


de lembrar a Kubie que ele usa um conceito “fora de moda” para os cibernéticos: o conceito de “energia” é para ser substituído pelo de “informação” (von Foerster 1950:97). Uma certa convergência de Kubie com os cibernéticos na crítica ao behaviorismo não lhe evita dissabores quanto à sua própria escola (a psicanálise). Numa sessão que tem lugar mais tarde durante a mesma conferência, há um aceso debate acerca do estatuto da psicanálise como ciência. O ponto central diz respeito ao facto de o observador de humanos (pacientes) ser também um humano (o analista). Stroud considera essa forma de proceder completamente contrária à boa prática científica: ele diz que também faz experiências psicológicas com humanos, mas que prepara toda a instrumentação de modo que a realização da experiência dispense a sua intervenção e que os humanos que entram na experiência sejam “medidos” apenas pelas máquinas e não interajam com ele (von Foerster 1950:152). Wiener está na mesma posição crítica e resume: “Se queremos investigar a luz azul não pomos a luz azul num microscópio de luz azul” (von Foerster 1950:154). FremontSmith não aprecia nada essa forma de encarar o trabalho dos psicanalistas e faz notar que eles têm uma longa experiência de observação de outras pessoas e fazem isso tentando não interagir (está a referir-se à técnica clássica, de que Kubie era partidário, em que o paciente está recostado no divã de costas para o analista sentado numa cadeira, sendo que o analista procura que não chegue a haver contacto pessoal entre ambos) (von Foerster 1950:152). É um exemplo de questões epistemológicas gerais que saltavam constantemente para o debate. Kubie insiste dois anos depois. A terceira apresentação da oitava conferência cabe-lhe e, nessa ocasião, ele pretende dar um contributo sobre a comunicação humana do ponto de vista da psicanálise (von Foerster 1952:92-133). Partindo da ideia de que “a consciência representa apenas um pequeno fragmento do nosso estado psíquico total”, pretende mostrar que “usamos e gravamos

76

Cibernética.indd 76

18-01-2007 17:28:09


e respondemos continuamente e a todo o tempo a uma forma inarticulada ou subverbal de comunicação, tanto ao nível consciente como inconsciente” (von Foerster 1952:95). Para o efeito, introduz resultados de observação clínica relativos a humanos hipnotizados (um estado que considera entre o consciente e o inconsciente): pessoas hipnotizadas podem ser levadas a lembrar-se de uma quantidade impressionante de detalhes de situações, aos quais não têm acesso quando “acordadas” – mostrando que possuem registos de memória que não estão acessíveis a partir de estados conscientes (von Foerster 1952:95-98). Quando o criticam por usar o termo “inconsciente” (Rioch diz “podemos dar uma definição operacional de consciente, mas não de inconsciente” (von Foerster 1952:104)), responde que os behavioristas também tinham esse tique de considerar que termos acerca de estados “internos” não podiam ter conteúdo científico e que isso os conduziu a impasses irresolúveis (von Foerster 1952:105). A discussão da sua apresentação é um bom exemplo dos preconceitos de muitos membros daquele grupo acerca da metodologia científica e da pretensa “não cientificidade” das abordagens das ciências humanas. Demos apenas alguns exemplos. Rosenblueth declara que a ideia de que haja registo inconsciente de impulsos (sinais comunicacionais) é uma pura contradição nos termos: se uma pessoa não pode reportar algo da sua “experiência mental” é porque essa experiência simplesmente não existiu (von Foerster 1952:104). Tenta, assim, excluir, com uma argumentação pretensamente lógica, uma determinada resposta a uma questão que poderia obter mais convenientemente uma resposta empírica. McCulloch, pelo seu lado, contesta o universalismo simbólico de Kubie declarando que há muitas coisas nos seus sonhos que só podem ser sonhadas em inglês, nunca em alemão ou em latim… (von Foerster 1952:107). Rioch defende que a psiquiatria deve ser uma das ciências naturais e devia tratar com o seu objecto de acordo com as regras das ciências naturais (von Foerster 1952:128). Pitts, aparentemente agastado

77

Cibernética.indd 77

18-01-2007 17:28:09


por Mead ter defendido que não há nada de estranho em que os psiquiatras usem métodos diferentes dos cientistas naturais, proclama: “se somos cientistas e os métodos do psicanalista (…) não são científicos, cabe-lhe a ele fazer com que o sejam, e não a nós admitir que esse métodos (…) são tão bons como os nossos” (von Foerster 1952:132). Não é nosso empenho defender a cientificidade da psicanálise, mas apenas fazer notar que, nesta discussão, a reacção dos cibernéticos não consistiu em analisar seriamente os resultados apresentados por Kubie: limitaram-se a bloquear, com preconceitos metodológicos estribados numa certa concepção de ciência, qualquer possibilidade de debate. O próprio Kubie, aliás, antes de desistir de dialogar, tentou entrar no tom dominante: “Nunca alcançaremos os vossos justificados requisitos para um processo cientificamente objectivo enquanto não formos capazes de reproduzir as entrevistas analíticas de modo a podermos debruçar-nos sobre elas e estudá-las uma e outra vez, do mesmo modo que uma dúzia de pessoas pode observar um espécime ao microscópio ou escutar o bater do coração” (von Foerster 1952:128). Imagine-se o que isto poderia significar como critério de cientificidade para outras ciências do homem e da sociedade. O estatuto das ciências sociais Vimos que no seio da cibernética se trava uma batalha pelo tipo de teoria psicológica admissível nessa visão da ciência. Essa batalha toca outros domínios. Interessa-nos agora considerar o estatuto das ciências da sociedade. A certa altura do debate da apresentação de Ralph W. Gerard na nona conferência, que incidira sobre certos detalhes anatómicos do cérebro, Bateson queixa-se de que é difícil ver como podem relacionar-se as questões epistemológicas de fundo (que lhe interessam) com aquelas minúcias de neurofisiologia (von Foerster 1953:137138). Quase no fim desse debate, Frank responde-lhe que as apresen-

78

Cibernética.indd 78

18-01-2007 17:28:09


tações feitas naquelas conferências devem “ser vistas por diferentes pessoas a diferentes níveis, perguntando-se uns [os cientistas sociais aos neurologistas] será que os vossos pressupostos me podem servir quando lido com as ciências sociais? e, conversamente, os neurologistas dirão por sua vez será que os pressupostos que vocês usam nas ciências sociais são compatíveis com o tipo de pressupostos e conhecimento que temos acerca do sistema nervoso?” (von Foerster 1953:149). A forma de colocar a questão aponta claramente para uma secundarização das ciências sociais. As ciências sociais, quando se interrogam, devem fazê-lo para tentar aprender com os neurologistas algo que lhes seja útil. Os neurologistas, quando se interrogam, é para inspeccionar os fundamentos epistemológicos das ciências sociais e verificar se eles se conformam com os conhecimentos científicos acerca do sistema nervoso. Mesmo assim, mais do que os esforços das ciências “naturais” para dominar as ciências “sociais”, o que realmente é revelador é o esforço das ciências “sociais” para serem reconhecidas como “verdadeiramente científicas” pelas ciências “naturais”. Para isso, vamos considerar com alguma detença a primeira apresentação da Oitava Conferência, que cabe a Alex Bavelas. A apresentação de Bavelas (von Foerster 1952:1-20), aborda a questão dos padrões de comunicação em grupos. Uma série de experiência projectadas para lidar com essa questão incidem sobre grupos em que cada um dos indivíduos pode comunicar, directa ou indirectamente, com alguns dos outros durante a execução de uma tarefa (cf. esquema).

Grupo 1 (“círculo”)

Grupo 2 (“cadeia”)

Grupo 3 (“estrela”)

79

Cibernética.indd 79

18-01-2007 17:28:09


A tarefa de uma primeira série de experiência pode ser descrita como segue. Cada um dos cinco participantes recebe um cartão com cinco símbolos (asterisco, cruz, círculo, etc.). Todos os símbolos aparecem em quatro dos cinco cartões, excepto um que aparece em todos. Cabe aos cinco indivíduos determinar qual dos símbolos aparece sempre. Os indivíduos, isolados, só podem comunicar por mensagens escritas em cartões que passam uns aos outros segundo os canais permitidos (cf. setas nos esquemas). Podem escrever tudo o que quiserem nessas mensagens. Os cartões, sendo coloridos, identificam cada emissor. Uma mensagem é enviada colocando-a numa caixa com a cor de um dos vizinhos imediatos. Quando um dos participantes achar que já sabe a resposta (o símbolo comum) assinala-a ao experimentador e pode informar os outros participantes. Cada ronda termina quando todos os participantes deram a sua resposta. O objectivo é realizar a tarefa correctamente e o mais rapidamente possível. Os participantes não têm à partida qualquer noção do tipo de rede em que estão inseridos: apenas sabem que têm à sua frente, por exemplo, uma caixa verde e uma caixa azul para recepção de mensagens – e que isso quer dizer que podem enviar mensagens para “o verde” e para “o azul”. Durante a tarefa, cada participante tem papel e lápis para tomar todas as notas que entender. Os resultados mostram que a configuração 1 é a mais lenta e a que comete mais erros, a configuração 3 a mais rápida e a que de longe comete menos erros. Na rede 3, os participantes apreendem a forma de operar à segunda ronda, enquanto na rede 2 isso só acontece à sexta ou sétima ronda. Em geral, um participante não chega a apreender a estrutura geral da rede. Foram experimentados redes em que todos podiam comunicar com todos, mas essas nunca conseguiam arranjar maneira de resolver o problema num tempo razoável (meia hora, em vez de um minuto ou dois). Outra questão estudada diz respeito à “emergência de organização” ou “emergência de um padrão de operação”. A rede em

80

Cibernética.indd 80

18-01-2007 17:28:09


círculo nunca adquire um padrão de organização: todos os participantes neste tipo de grupo tendem a enviar todas as mensagens em ambas as direcções e o mais rápido que conseguem, até que alguém descubra a solução. A questão da liderança foi investigada perguntando a cada participante se o grupo tinha um líder e quem era (isto é, de que cor era). As percentagens de atribuição de liderança, seguindo esse método, recaem em cada nó da rede tal como apresentado na imagem seguinte.

Também foi trabalhada a questão da satisfação que os participantes retiravam do “jogo”: Bavelas conclui que quanto mais um participante é periférico na sua rede, pior é a sua disposição face à tarefa. Com base nos trabalhos aqui descritos parcialmente, a equipa de Bavelas passa a um nível diferente: deixa as experiências e passa aos cálculos. Isto é: traduzem diferentes topologias de redes em matrizes, nas quais um 1 representa a existência de uma ligação directa entre dois nós (podendo ser passada uma mensagem), enquanto um 0 significa que tal ligação não existe. Tratam depois de calcular a probabilidade de uma mensagem originada num dado ponto da rede atingir outro determinado ponto da rede, num certo lapso de tempo – em função das características topológicas da rede. Bavelas afirma que, nos casos em que puderam comparar o cálculo com experiências efectivamente realizadas com humanos (como as descritas anteriormente), o que se passou “no papel” e

81

Cibernética.indd 81

18-01-2007 17:28:09


“na realidade” exibe o mesmo padrão de comunicação na rede – designadamente, o indivíduo reconhecido como líder é aquele a cuja posição chega mais informação. Com este material Bavelas adiante uma teoria da comunicação nos grupos humanos: um indivíduo tem, em qualquer momento, certas hipóteses relativas à sua pertença ao grupo e ao mundo, umas mais importantes do que outras; o seu interesse é optimizar as probabilidades de que as suas hipóteses estejam correctas e isso consegue-se em larga medida recolhendo informação junto dos outros; o grau de incerteza que posso tolerar em relação a certas hipóteses é grande (será gelado de chocolate a sobremesa?), mas essa tolerância é pequena em relação a outras hipóteses (serei eu uma pessoa respeitada?); o comportamento dos outros contribui com informação e, por isso, pode modificar a nossa apreciação das probabilidades envolvidas numa situação (uma pessoa sorridente e enérgica pode revitalizar um grupo desanimado face a uma tarefa); em termos gerais, aquilo a que chamamos “necessidades sociais” são hipóteses que nos são transmitidas culturalmente e relativamente às quais queremos optimizar as probabilidades de que estejam correctas; uma boa parte dos comportamentos no seio de uma organização estão relacionados com as características da rede de comunicação existente nessa organização. Esta apresentação, bem como o debate que se lhe seguiu, suscita vários comentários. Desde logo, é notória a tentativa de interpretar o funcionamento dos grupos em termos de uma espécie de versão adaptada de teoria matemática da comunicação – apesar de Shannon explicitar que não vê uma ligação entre a sua noção de informação e as experiências ali apresentadas e que o conceito de base da teoria de Bavelas (probabilidade subjectiva) não tem nada a ver com a teoria matemática da comunicação (von Foerster 1952:22). A tentativa de produzir desenvolvimentos teóricos que encaixassem nos paradigmas admirados por aquele grupo também se reflecte na discussão acerca de como as experiências apresenta-

82

Cibernética.indd 82

18-01-2007 17:28:09


das poderiam ser lidas à luz da teoria dos jogos de von Neumann (von Foerster 1952:33-37). Outro ponto de interesse surge quando Bavelas apresenta (como vimos acima) um modelo de representação de topologias de redes de indivíduos por meio de matrizes preenchidas com 1s e 0s consoante haja ou não possibilidade de passar mensagens numa conexão. Bavelas explicita (von Foerster 1952:17) que esse cálculo assenta em determinados pressupostos teóricos: (1) cada pessoa envia uma mensagem em cada “momento” da rede; (2) cada mensagem contém toda a informação de que o emissor dispõe no momento; (3) se uma pessoa tem mais de um canal à disposição, escolhe um deles de forma aleatória, com probabilidades iguais; (4) uma pessoa não pode enviar a mesma mensagem para a mesma pessoa mais do que uma vez. O enunciado destas regras despoleta uma discussão acerca da eficácia previsional do modelo (vimos que Bavelas entendia que o modelo traduzia bem as experiências com pessoas reais). Uma das regras analisadas é a que interdita a duplicação de mensagens. Às tantas diz Savage, em defesa desse pressuposto: “Ninguém é tão tolo que diga a mesma coisa à mesma pessoa duas vezes. Só os humanos fazem isso.” (von Foerster 1952:18) Observação óbvia de Margaret Mead: “Mas isto referese a seres humanos.” A partir deste ponto, está lançado um debate acerca do realismo destes modelos e das capacidades relativas dos humanos e das máquinas. Kubie, por exemplo, diz que o modelo pressupõe que tudo o que uma pessoa sabe lhe é igualmente acessível em qualquer momento – e que isso é falso. Shannon (a propósito de outra experiência, que mostra que em certas circunstâncias os humanos pioram o seu desempenho depois de receberem mais informação) fala da irracionalidade das pessoas comparada com a racionalidade da máquina (von Foerster 1952:38). Outros, como Bigelow, também referem que o desempenho humano em certas circunstâncias é mais deficiente do que o de uma máquina, o que Bavelas corrobora dizendo ser demonstrável que os humanos em

83

Cibernética.indd 83

18-01-2007 17:28:09


algumas das experiências analisadas acima nunca chegaram ao modo mais eficaz de realizar a tarefa (von Foerster 1952:40). Pitts comenta que a comparação adequada não é entre o desempenho de um humano (que tem de fazer face a um leque muito diversificado de situações) e o de uma máquina projectada para um elevado desempenho numa tarefa específica: a comparação devia ser entre o desempenho de uma máquina projectada com o fim específico X e o desempenho de outra máquina que foi projectada para fazer Y e é posta a fazer X (von Foerster 1952:43). O conjunto desta discussão mostra claramente que, no seio do grupo, havia quem por vezes detectasse uma certa deriva da “metáfora do computador”. O confronto que acabamos de relatar tem, em certos momentos, a natureza de uma reflexão epistemológica explícita. Bigelow critica os que desaconselham uma generalização das conclusões para a sociedade humana por causa do seu irrealismo e abstracção, porque ninguém é capaz de fazer modelos do mundo real, mas estes revelam factos importantes, como por exemplo que as máquinas em certas circunstâncias fazem certas coisas melhor que os humanos (quanto mais não seja porque as circunstâncias afectam muito mais os humanos do que as máquinas). Além do mais, a ciência sempre necessitou deste tipo de simplificações para avançar (von Foerster 1952:32-33). Pitts, até certo ponto fazendo a ponte entre várias abordagens, dissera já: uma ferramenta matemática como a teoria dos jogos não dá orientação nenhuma para analisar os casos em que as pessoas não se comportam da forma “optimizada” estudada pela teoria (von Foerster 1952:34). Esta posição equilibrada não suscitou nenhuma contestação directa, mas não teve o condão de fazer inflectir o tom dominante. Não queremos terminar a análise deste momento das conferências cibernéticas sem acrescentar uma observação: o conjunto das experiências propostas por Bavelas tem por base uma concepção assaz curiosa de grupo humano. O grupo humano, tal como é estudado neste contexto, é apenas um agregado de indivíduos. A or-

84

Cibernética.indd 84

18-01-2007 17:28:09


ganização ou a liderança, nos termos em que são tematizados, são meros agregados de percepções individuais atomizadas. Não há, na dinâmica das experiências apresentadas, qualquer espaço para analisar um nível que poderíamos designar por institucional. Queremos dizer: não é dada qualquer especificidade à possibilidade de que os indivíduos se organizem para realizarem de forma mais eficaz a tarefa, não se pensa que os indivíduos possam pensar acerca de qual será a melhor forma de se coordenarem. O pressuposto, que não chega sequer a ser tematizado, é de um individualismo puro. Isso não impede que chegue a ser mencionado como essa abordagem pode ser superficial. Por exemplo, a certa altura Bavelas (voltando à sua experiência inicial e querendo sublinhar certas incapacidades dos humanos face às capacidades das máquinas) faz notar que o grupo organizado em círculo poderia realizar a tarefa com apenas três transmissões por indivíduo, acrescentando que mesmo grupos a quem foi dito explicitamente que isso era possível não o conseguiram realizar. Savage responde-lhe: “Mas seis máquinas não o fariam em três movimentos de transmissão; uma máquina poderia fazê-lo. Não me parece que aqui os indivíduos sejam culpados de qualquer erro de cálculo. Serão culpados de um estado de guerra internacional ou coisa do género; quer dizer, são culpados de não formarem as melhores coligações e subgrupos.”( von Foerster 1952:40, ênfase nosso) Aqui, embora de forma passageira, o problema é aflorado e mostra-se que, embora essa questão não pertença ao núcleo duro dos interesses daquele grupo, há uma certa percepção de que certas simplificações podiam ser problemáticas. O futuro mostrará que essas simplificações nunca deixaram de se tornar presentes. Reflexões epistemológicas e temas para o futuro Os apontamentos que temos vindo a fazer acerca da dinâmica do movimento cibernético nos EUA têm permitido, pensamos nós, verificar que há nesse espaço um intenso debate filosófico acerca

85

Cibernética.indd 85

18-01-2007 17:28:09


do empreendimento científico e uma reflexão epistemológica multifacetada. Parece também claro que há um conjunto de temas e de problemas que, tendo a sua origem nessa reflexão dos anos 1940 e 1950, permanecerão por muitos anos como inspiração para a investigação acerca do artificial (algumas dessas questões sobrevivendo a anos de esquecimento e reaparecendo mais tarde, por vezes até mais ou menos recentemente). A primeira apresentação da Sétima Conferência, que cabe a Ralph Gerard, bem como o debate que se lhe segue (von Foerster 1951:11-57), são um bom exemplo do que acabamos de dizer. A abrir a sua apresentação, Ralph Gerard faz uma observação cuja pertinência nos parece ultrapassar aquela circunstância e lançar uma luz sobre toda a história das ciências do artificial. Disse Gerard: «Parece-me, ao olhar para a história deste grupo, que começámos as nossas discussões num espírito “como se”. Todos se deleitavam expressando qualquer ideia que lhes viesse à mente, parecesse ela disparatada ou absolutamente certa ou meramente uma suposição estimulante que poderia afectar algum dos outros. Explorámos possibilidades para todo o tipo de “ses”. Então, um tanto abruptamente, pareceu-me, começámos a falar numa linguagem “é”. Estávamos a dizer em larga medida as mesmas coisas, mas agora dizendo-as como se elas fossem mesmo assim.» (von Foerster 1951:11) E, logo a seguir, chama a atenção para a responsabilidade que isso implica, nomeadamente se se pensar no jovem físico que se lança com a sua abordagem nos terrenos da biologia. A seguir acautela: no princípio do século XIX a frenologia também despertou uma grande quantidade de trabalho matemático, em que as melhores cabeças desse tempo procuravam quantificar os dados propostos – sem que isso tenha evitado o destino (inglório) que se conhece para essa teoria (von Foerster 1951:12). Ralph Gerard propõe a seguinte crítica central ao discurso que tinha vindo a ser elaborado naquele grupo: o conhecimento que temos do cérebro biológico é de momento insuficiente para sustentar

86

Cibernética.indd 86

18-01-2007 17:28:10


qualquer conclusão definitiva acerca do seu funcionamento (desautorizando, assim, a pressa em tirar conclusões “lógicas” nessa matéria tão carente de investigação empírica); usar o que sabemos acerca das máquinas calculadoras e dos sistemas de comunicação para tentar interpretar a acção do cérebro, está muito bem – mas daí passar para a ideia de que essas máquinas são cérebros e que os nossos cérebros não são mais do que máquinas calculadoras, é um abuso: “do mesmo modo poderíamos dizer que o telescópio é um olho, ou que um bulldozer é um músculo”; o conhecimento empírico disponível acerca do cérebro e do sistema nervoso em geral contraria a ideia (dominante entre os cibernéticos) de que o seu funcionamento seja predominantemente digital – e apoia a ideia de que a sua operação depende de muitos tipos de regulação química (ligados ao dióxido de carbono, aos níveis de acidez e de açúcar, ao equilíbrio entre sódio e potássio, a vários outros bem documentados experimentalmente) e que essa é claramente analógica, na medida em que opera de forma contínua em termos de concentração e em termos de consequências; mesmo a actividade eléctrica do sistema nervoso é em grande parte analógica, na medida em que opera com variações contínuas de potencial; mesmo que o impulso nervoso seja do tipo “tudo ou nada”, ao nível do neurónio individual, ideia muito cara aos cibernéticos e que sustenta a sua “fé digital”, isso não significa que esse aspecto digital do cérebro ou do sistema nervoso seja explicativo do funcionamento global do sistema, da conectividade entre os seus elementos; o facto de os impulsos nervosos serem discretos (descontínuos) pode ser puramente incidental e não foi demonstrado que isso seja pertinente para a compreensão do sistema (von Foerster 1951:12-17,45-46). Esta preocupação com o (ir)realismo biológico de certos modelos propostos é interessante. Embora não haja naquele grupo um consenso teórico acerca desse ponto – alguns valorizam o realismo biológico, mas outros não o consideram indispensável –, o certo é que as propostas que evidenciem um desprezo claro pela preo-

87

Cibernética.indd 87

18-01-2007 17:28:10


cupação de realismo biológico acabam por provocar um acolhimento pouco caloroso. Um exemplo é dado pela comunicação de Heinz von Foerster à Sexta Conferência (von Foerster 1950:112145). Von Foerster, doutorado em física na Alemanha, tinha elaborado uma “teoria quântica da memória”: uma unidade de memória (“mem”) seria uma macromolécula cuja energia variava de um nível para outro consoante recebia ou esquecia uma unidade de informação. Von Foerster dera um aspecto quantitativo à sua teoria adaptando-a à curva de esquecimento de sílabas sem significado, que Ebbinghaus apresentara. McCulloch, tendo sabido da publicação dessa teoria (em alemão), convidou o seu autor para a sexta conferência. Contudo, a recepção foi céptica, porque ninguém conseguia identificar qualquer correspondência entre essa teoria e qualquer mecanismo conhecido do sistema nervoso. Ora, esse posicionamento, embora não fosse “proibido” por nenhum preceito metodológico partilhado pelo grupo, parecia não ser capaz de suscitar um verdadeiro interesse. Parece que os modelos artificiais deveriam ser, para a maioria, uma esperança séria de revelarem aspectos substantivos das suas contrapartes naturais. Daí que a exposição de Gerard, questionadora de vários pressupostos dominantes naquele grupo, tenha suscitado um debate muito interessante. Convém não esquecer, a propósito, que nesta época os conhecimentos neuroanatómicos e neurofisiológicos são ainda imprecisos e ainda muito disputados. É certo que desde o princípio do século que a escola espanhola (Ramon y Cajal, mas também Lorente de Nó, este participante das conferências Macy e de outros círculos cibernéticos) credibilizara a tese de o funcionamento do sistema nervoso central ser assimilável a uma rede de neurónios. Mas não havia muitos anos que tinham sido derrotadas as teses que apresentavam o cérebro como uma matéria contínua que só pode ser compreendida com um todo indiviso. E, principalmente, sabe-se pouco dos pormenores (Dupuy 1994:47-48).

88

Cibernética.indd 88

18-01-2007 17:28:10


Assim, o grupo vai reagir à “sombra” de irrealismo levantada por Gerard concentrando o debate na questão “digital versus analógico” no sistema nervoso biológico. Wiener repete o que afirmara noutras ocasiões: estar convencido de que o sistema nervoso natural é uma máquina parcialmente digital e parcialmente analógica, que os autómatos construídos pelos humanos deviam explorar essa possibilidade e que isso pode talvez ser feito por sistemas em que a modificação do limiar de excitação dos “neurónios” das máquinas digitais seja induzida por meios não digitais. O que importa, diz, é o aspecto lógico dessas máquinas (von Foerster 1951:18). Wiener dá o exemplo de um autómato industrial que, sendo dotado dos “melhores cérebros internos disponíveis” (digitais), terá de ter órgãos capazes de leitura analógica (por exemplo, leitura da temperatura num termómetro). Esse mesmo esquema pode explicar os sistemas naturais (humanos, animais) (von Foerster 1951:27-28). Wiener apoia o carácter não absoluto da distinção analógico/digital, acrescentando que, de um ponto de vista dinâmico, um sistema digital tem “campos de atracção” que tornam muito prováveis certos estados e muito improváveis todos os outros – tal como, se se puser uma moeda a rodar, ela deverá cair “cara” ou “coroa” e muito dificilmente parará na vertical (von Foerster 1951:21-22). Fremont-Smith ilustra assim o carácter aspectual da distinção analógico/digital: o coração bate de modo intermitente (descontínuo) e o fluxo capilar é contínuo, sem que se possa indicar um ponto preciso de transição de um modo para outro (von Foerster 1951:51). Gerard responde que acha insuficientes essas posições, que tendem a colocar a questão ao nível da descrição mais conveniente para um sistema: o seu ponto de vista é que a lógica do sistema nervoso não é binária, antes admitindo gradações de verdade e de falsidade (von Foerster 1951:22). É curioso olhar para este debate do ponto de vista da história da Inteligência Artificial e da robótica, porque ele antecipa desenvolvimentos que só terão plena aplicação muito mais tarde.

89

Cibernética.indd 89

18-01-2007 17:28:10


Em parte relacionada com a temática anterior, é curiosa a referência a uma questão que estará adormecida no domínio do artificial durante muitos anos: as emoções. Na sequência da apresentação de Kubie à Sexta Conferência, Wiener suscita a questão da necessidade de incluir os processos emocionais no estudo da actividade mental, considerando que isso implica que uma descrição geral não pode esgotar-se na actividade puramente neuronal. No sentido de alcançar uma teoria da comunicação englobante, que inclua as emoções, sugere que provavelmente o que se passa é que o sistema humoral transporta mensagens do tipo “a quem isto possa interessar”, isto é, que têm um efeito modificador nas sinapses (ou de outro modo nas redes neuronais) mas só nas que estejam activas nessa ocasião. Acrescenta que suspeita que esse processo emocional está relacionado com a aprendizagem (das redes neuronais) (von Foerster 1950:88-89). Bateson comenta imediatamente que esse ponto de vista nos leva dos limites do cérebro para a totalidade do corpo e desse modo de uma máquina digital para uma máquina analógica – ao que Wiener responde insistindo que se trata de “uma máquina com uma parte analógica e uma parte digital” (von Foerster 1950:89). Bateson concorda e acrescenta com uma noção que hoje poderíamos designar por “empatia”: “Com a parte analógica a ser capaz de forjar analogias com as acções observadas nos seres humanos com quem comunicamos” (von Foerster 1950:89).

90

Cibernética.indd 90

18-01-2007 17:28:10


A CIBERNÉTICA FORA DOS EUA

É fácil ficar com a ideia, do que até aqui se escreveu, que a cibernética era um empreendimento intelectual essencialmente americano. Para corrigir um pouco essa ideia errada, daremos agora atenção a outros pensadores afins. Contudo, isso não se fará apenas por uma questão de rigor histórico. Para esse fim, referiríamos, por exemplo, (Segal 2003:242-320), que mostra não apenas que havia um movimento cibernético activo na Europa, mas ainda que seria justo em muitos aspectos considerar que ideias fundamentais da cibernética surgiram e começaram a ser trabalhadas na Europa antes de se terem popularizado em meios científicos norte-americanos. Poderíamos completar um quadro exemplificativo de como rapidamente as ideias cibernéticas se tornaram atractivas em diversificados espaços geográficos e políticos mencionando (Segal 2003:663-693) sobre as controvérsias em torno da cibernética na URSS e na então RDA. Acontece, entretanto, que o que nos move mais directamente é alargar o quadro de explicitação das ideias que mais poderosamente se exprimiam neste movimento. Para tal, referiremos de imediato duas obras, uma de um francês e outra de um britânico. Uma hierarquia do reino das máquinas Um exemplo interessante do desenvolvimento das concepções cibernéticas fora do mundo anglo-saxónico é a obra de Pierre de Latil, Introduction à la Cybernétique – La Pensée Artificielle, publicada em França em 1953 e traduzida pouco depois para inglês. Latil dá voz aos que vêem a cibernética como uma revolução cien-

91

Cibernética.indd 91

18-01-2007 17:28:10


tífica e filosófica: em vez de continuar na senda da especialização, a ciência “chega à idade da síntese”, sendo que o movimento principal dessa revolução é a confluência da matemática e das ciências humanas, o rigor daquela compensando a incerteza destas. A “matematização dos factos humanos” será um instrumento da cibernética que, no dizer de Ampère, era “a parte da política que trata dos meios de governar” e que agora alcança uma generalidade sem precedentes com base na compreensão de que as máquinas e organismos não são fundamentalmente diferentes. A pergunta pela natureza dos mecanismos “suscita todo o problema do homem e todo o problema da civilização futura” (de Latil 1953:23-30). Para compreender uma máquina, que necessita de energia para funcionar, é preciso distinguir entre energia de execução e energia de comando. Quando dactilografo numa máquina de escrever mecânica, os meus dedos fornecem os dois tipos de energia – mas ao dactilografar numa máquina electrónica só forneço energia de comando, sendo o motor eléctrico que fornece energia de execução. A energia de comando é que determina as variações de comportamento do mecanismo no espaço e no tempo. Um mecanismo diz-se automático se ele próprio comanda essas variações (de Latil 1953:36,42). Há vários graus de automatismo consoante os graus em que se realiza essa autonomia. Latil, para expor a sua hierarquia do reino das máquinas, representa uma máquina por um círculo, os factores que determinam o seu comportamento por setas dirigidas para a máquina, os efeitos do comportamento da máquina por setas dirigidas da máquina para o seu ambiente. O conjunto dos factores de comportamento de uma máquina é o seu determinismo. Em qualquer máquina, o seu construtor tentará controlar o efeito de certos factores sobre o respectivo comportamento: representam-se esses factores por setas marcadas com X e diz-se que são factores fixos. Outros factores, não fixados desse modo, variarão de forma contingente. Certas máquinas são construídas de forma que a variação contingente de

92

Cibernética.indd 92

18-01-2007 17:28:10


um factor seja medida, tal como um termómetro é construído de forma a que a variação de temperatura faça variar o seu comportamento. Às máquinas assim construídas chamamos detectores. Com estas noções, passamos a apresentar a hierarquia dos mecanismos na concepção de Latil, começando pelos graus inferiores, aos quais pertencem as máquinas determinadas. Uma máquina cujo comportamento é completamente determinado pela variação artificial de factores fixos é uma máquina de grau 1 (de Latil 1953:42-43).

máquina de grau 1

Uma máquina que, graças a alguma forma de programa, dispõe de variações de comportamento, é uma máquina de grau 2 (de Latil 1953:43-45). Uma máquina dessas, capaz de actos variáveis, coordena os seus movimentos elementares de forma que eles resultem num determinado comportamento complexo. O programa distribui a energia de comando. O programa pode estar incorporado na própria realização física da máquina.

máquina de grau 2

93

Cibernética.indd 93

18-01-2007 17:28:10


Uma máquina “sensível” a contingências exteriores, no sentido em que elas podem modificar o seu programa, é uma máquina de grau 3 (de Latil 1953:45-46). Assim será com uma máquina capaz de detectar um incêndio no seu ambiente e que, nesse caso, muda o seu modo de operar. Uma máquina assim “aprecia ela própria a oportunidade dos seus actos”. Tal máquina representa-se por uma seta de contingência que influencia o seu programa.

máquina de grau 3

Em máquinas destes três graus, o homem (no primeiro) encarrega a máquina de agir em seu lugar, (no segundo) de coordenar os seus actos, (no terceiro) de avaliar e decidir das circunstâncias da sua acção. Basicamente, o homem coloca o seu próprio pensamento na construção da máquina, a máquina é um registo do pensamento do homem, a máquina poupa ao homem muitas repetições de raciocínios porque o homem guardou os seus raciocínios na máquina (de Latil 1953:47-48). Estas máquinas são máquinas determinadas pelo homem, porque é o homem que as regula agindo sobre os seus factores (de Latil 1953:287). Para chegar a graus superiores de automatismo, a máquina tem de controlar o seu próprio determinismo. Isso alcança-se pela retroacção, a acção de um efeito sobre algum dos factores da mesma máquina, de tal modo que um dos factores se torna função do efeito. Aí reside “o segredo da ordem universal” (de Latil 1953:5154). O esquema básico que permite compreender as máquinas per-

94

Cibernética.indd 94

18-01-2007 17:28:10


mite também compreender a natureza. Assim, a retroacção é “o segredo da natureza” (de Latil 1953:106ss).

Esquema da retroacção com comando

A retroacção é o mecanismo geral de estabilização: do sistema nervoso, do organismo no seu todo, dos fenómenos químicos, dos nichos ecológicos, dos fenómenos económicos e demográficos: “uma fome deve ser vista como um caso de equilíbrio vital” (de Latil 1953:116). Assim, vendo “a economia política a uma nova luz”, a cibernética reencontra então o seu papel original: ciência de governar as sociedades (de Latil 1953:128). Deste modo Latil integra uma noção central de toda a cibernética. O dispositivo que implementa a retroacção é um detector. O detector tem uma posição de referência, isto é, aquele ponto de equilíbrio que o sistema está programado para proteger (por exemplo, um termóstato tende para uma determinada temperatura, sendo essa a referência que lhe foi fixada). Se a referência for fixa, teremos um regulador automático; se pudermos fazer variar a referência, temos um mecanismo de comando, porque por essa via influenciamos o comportamento global de todo o mecanismo, que assim designamos por servomecanismo (de Latil 1953:76-77,81). A retroacção é o princípio de organização. Se tivéssemos em conta apenas a causalidade linear, não poderíamos compreender o mundo. A noção de “causa” é desalojada pela de “retroacção”.

95

Cibernética.indd 95

18-01-2007 17:28:10


A única “causa” é a concordância de todos os factores, no sentido em que uma função causal especifica um domínio delimitado pelos valores máximos e mínimos admissíveis para cada um dos factores, tal que só dentro desse domínio se produz o efeito que é a finalidade do sistema em causa – e é a retroacção que organiza esse sistema (de Latil 1953:136, 142-146). Uma máquina de grau 4 é dotada de retroacção, pelo que adapta o seu comportamento à mudança das circunstâncias: um efeito que se consuma age sobre um efeito em preparação (embora só possa ter em conta as circunstâncias passadas). É o caso da peça de artilharia que persegue um avião e que ajusta o tiro automaticamente em função dos tiros anteriores e da projecção das circunstâncias no tempo (de Latil 1953:255). Trata-se do primeiro grau de uma máquina cibernética.

máquina de grau 4

Numa máquina de grau 4 a retroacção e a consequente regulação dependem de um único efeito. Teremos uma máquina de grau 5 se o conjunto de todos os factores que determinam a máquina funcionarem com retroacção e, em conjunto (em interacção), forem capazes de preservar o equilíbrio homeostático da máquina por vias que não estejam rigidamente pré-programadas do exterior (de Latil 1953:274-275). As máquinas de grau 4 e 5 são máquinas com organização, onde a regulação é interna ao sistema e não depende do comando exterior do humano (de Latil 1953:287).

96

Cibernética.indd 96

18-01-2007 17:28:11


O exemplo de máquina de grau 5 que Latil fornece é o homeostato de Ashby, o qual considera a máquina mais evoluída nesse tempo – por ser uma máquina que prossegue o seu próprio fim de forma autónoma (de Latil 1953:282-283). Mas mesmo numa máquina de grau 5 ainda é o humano que estabelece (a partir do exterior) a referência da retroacção, que constitui a finalidade do sistema (de Latil 1953:288). Uma máquina em que a referência da retroacção não seja imposta do exterior, mas dependa de outras partes do seu próprio funcionamento interno, será uma máquina multi-estados – no sentido em que pode realizar o seu próprio equilíbrio de várias maneiras. Aí, o equilíbrio global é feito de múltiplos desequilíbrios locais, com várias combinações dos seus factores e efeitos, as quais não são pré-determinadas de forma rígida nem sequer minuciosamente previsíveis. Essa será uma máquina de grau 6. Um exemplo desse mecanismo é o humano, mas poderá ser construída uma máquina artificial de grau 6 (de Latil 1953:289-292).

máquina de grau 6

Numa máquina de grau 6, os efeitos dos seus efectores participam no comando dos detectores que implementam a retroac-

97

Cibernética.indd 97

18-01-2007 17:28:11


ção. É neste ponto que Latil avança uma noção “relativista” que viremos a encontrar décadas mais tarde em certos programas de robótica evolutiva. Escreve Latil que uma máquina destas terá liberdade se no seu esquema lógico não existir nenhuma seta vinda do exterior que não seja controlada por um efeito interno. No caso dos seres animais, que são deste tipo, a retroacção tem lugar fora do organismo, no meio exterior: esses mecanismos agem segundo factores internos e segundo o mundo exterior tal como eles o percepcionam – sendo que a sua acção, modificando a sua posição em relação ao mundo exterior, modifica a sua percepção do mundo (de Latil 1953:294-295). Nesse sentido, “o mundo exterior não age sobre o ser enquanto mundo exterior, mas enquanto parte integrante da sua estrutura interna. Para cada ser, o universo limita-se ao que ele sente: o universo infra-vermelho de certas placas fotográficas e o universo olfactivo do cão de caça não são o nosso universo. A contingência não é pois imposta ao ser pelo mundo em si, mas pelo ‘espectro’ descontínuo que ele percebe” (de Latil 1953:296). Segundo esta concepção, Latil traça o esquema de uma Machina Liberata, que corporize o mesmo esquema lógico de um animal vivo (de Latil 1953:297). No esquema, as setas a cheio indicam o efector central no sistema (o sistema nervoso), com os respectivos factores (que lhe chegam pelos órgãos sensitivos e do interior) e efeitos (que influenciam o meio através dos órgãos de acção); as setas a tracejado representam o circuito básico de retroacção, pelo qual o mundo relativo às capacidades sensoriais do efector integra a contingência exterior. Uma Machina Liberata deve possuir três mecanismos anexos: uma “memória”, que a ligue ao seu passado; um “raciocínio” que a ligue ao futuro; um “instinto”, que representa o que nos seres vivos é inato e contém os adquiridos da espécie (de Latil 1953:303).

98

Cibernética.indd 98

18-01-2007 17:28:11


Esquema de uma Machina Liberata

Em que se compara uma máquina destas com os humanos? Latil responde: “ela não deverá realizar os mesmos actos que os humanos, mas o mecanismo dos seus actos deverá ser o mesmo que o dos actos humanos, pela simples razão de que todos os actos – todos os efeitos – reflectem uma mesma lógica” (de Latil 1953:309). Os graus superiores de mecanismos ultrapassam tanto a máquina como o homem considerados individualmente. Os mecanismos de grau 7 são as próprias linhagens evolutivas, que fizeram o “quem” da própria espécie; os mecanismos de grau 8 são aqueles que criam a própria matéria (de Latil 1953:315,317). Uma receita mecanicista para compreender a complexidade Em 1956 Ross Ashby publica em Londres An Introduction to Cybernetics (Ashby 1956). O misto de continuidade e renovação que Ashby representa relativamente às obras cibernéticas anteriores é bem ilustrado pela forma como, desde o início, declara as duas forma pelas quais a cibernética deve contribuir para o avanço das ciências. Primeiro, criando um quadro conceptual único para lidar com os mais diversos tipos de sistemas (desde os servomeca-

99

Cibernética.indd 99

18-01-2007 17:28:11


nismos ao cerebelo). Segundo, constituindo-se como um método para estudar a complexidade: em vez do método até então seguido pela ciência (no estudo de um sistema, variar um factor de cada vez para tentar compreendê-lo), que deixava de fora tudo o que eram interacções entre parâmetros, usar um método que estuda todas essas relações complexas – podendo, desse modo, começar um estudo frutuoso de sistemas como o córtex cerebral, o formigueiro que funciona como uma sociedade, a economia das sociedades humanas (Ashby 1956:4-5). Assim, a clara introdução do tema da complexidade, bem como da sua particular relevância para o estudo dos sistemas biológicos, é um elemento estruturador desta obra de Ashby a que agora daremos uma atenção mais aprofundada. Considerar em algum detalhe esta obra é útil, devido à forma como ela deixa absolutamente clara uma abordagem mecanicista de todas as ordens da natureza e da sociedade, assente numa concepção acentuadamente formalista e claramente alimentada por pressupostos epistemológicos que vão sendo pouco a pouco explicitados. Dar um tratamento formal à mudança temporal. A ferramenta conceptual na qual assenta toda a obra é a noção de transformação. A “transformação” é o conceito pelo qual Ashby dá um tratamento formal à questão da mudança, designadamente da mudança no tempo: como quando as plantas crescem, os planetas giram ou as máquinas se movem (Ashby 1956:9). Uma transformação é um conjunto de transições em que um operador modifica um operando. Em geral, o mesmo operador pode actuar sobre diferentes operandos e produzir diferentes transições (por exemplo, aplicando “somar 3” a todos os naturais entre 1 e 9). Um exemplo simples é um codificador que transforma cada letra de uma mensagem na letra que se lhe segue no alfabeto, sendo que Z se transforma em A:

100

Cibernética.indd 100

18-01-2007 17:28:11


A B ... Y

Z

B C ... Z

A

Há vários tipos de transformações. Exemplo de uma transformação identidade:

1 2 3 1 2 3

A transformação identidade é um exemplo de uma transformação um-para-um. Mas também podemos ter transformações muitos-para-um:

1 2 3 4 5 6 7 8 9 1 2 1 2 1 2 1 2 1

Todas as transformações anteriores são transformações a valor único, mas uma transformação pode, pelo contrário, dar mais do que um resultado aquando da aplicação a um operando:

A B C B∨ D A B∨C

D D

Conceito importante é o de fechamento. Um conjunto de operandos é fechado debaixo de uma transformação T se e somente se T não cria nenhum elemento novo. Uma transformação a valor único que seja fechada pode ser aplicada repetidamente. Pegando no exemplo anterior da codificação da mensagem:

A B ... Y B C ... Z

↓C

Z A

D ... A B

101

Cibernética.indd 101

18-01-2007 17:28:11


Se representarmos a primeira transformação por T(n), a segunda transformação é o quadrado da primeira e pode ser representada por T(T(n)) ou T2 (n). As reiterações seguintes da mesma transformação são as potências seguintes de T. Se T é fechada, as potências de T também o serão. Uma transformação não fechada (cuja aplicação cria elementos que não pertencem ao conjunto inicial de operandos) não admite a potenciação: “é como uma máquina que avança um passo e depois encrava” (Ashby 1956:18). Podemos também ter produtos de transformações ou transformações compostas. Se T e U são duas transformações diferentes, a aplicação de T em primeiro lugar, seguida da aplicação de U aos resultados, pode ser representada por U(T), como a aplicação na ordem inversa pode ser representada por T(U). Qualquer transformação pode ser representada por uma matriz. Exemplo:

↓ A B C A + 0 0 ↓

A B C A C C

B C

pode ser representado por

0 0

0 +

0 +

Uma transformação pode também ser representada por um gráfico cinemático. Exemplo: a transformação

A B D H

C D E F G D I Q G Q

H H

I J A E

K E

L N

M B

N A

P N

Q E

pode ser representada assim:

102

Cibernética.indd 102

18-01-2007 17:28:12


P

C

↓ N ↑ L

↓ → A → D ↓ ↓ I ← ↵

K ↓ E

M

→ B → H

Q

← G ←

F

↑ J Esta representação tem a vantagem de fazer aparecer características estruturais da dinâmica da transformação, por exemplo, exibindo ciclos, pontos de paragem ou “bacias” (zonas relativamente separadas da dinâmica de transformação, com dinâmicas “locais”, como bacias hidrográficas no sistema de águas de um país). Para poder considerar a mudança de um sistema nas suas partes (por exemplo, a posição de um navio no mar é descrita por dois valores, latitude e longitude), introduz a noção de vector e respectivas componentes. A transformação de um vector processa-se pela transformação das respectivas componentes. Note-se que Ashby assinala que esta análise das transformações tem a ver com o que acontece e não com o porque acontece: pode, pois, ser aplicada sem conhecimento das causas da mudança (Ashby 1956:11). A máquina determinada. Sistemas deterministas. O passo seguinte é estabelecer um paralelismo entre transformações e máquinas ou sistemas dinâmicos no mundo real: um pêndulo que balança, uma cultura de bactérias, um piloto automático, uma aldeia nativa,… Assim, escreve Ashby, temos “a disciplina que relaciona os comportamentos dos sistemas físicos reais com as propriedades de expressões simbólicas, escritas a caneta no papel” (Ashby 1956:27). Vejamos o essencial do raciocínio.

103

Cibernética.indd 103

18-01-2007 17:28:12


Qualquer máquina ou sistema tem estados, isto é, uma dada condição reconhecível que pode voltar a ocorrer. Os operandos de uma transformação correspondem aos estados de que um sistema parte em cada passo; uma sequência temporal de estados de um sistema corresponde às sucessivas potências de uma transformação e designa-se por trajectória ou linha de comportamento; cada estado para o qual a máquina passa em cada passo corresponde a um resultado de uma transformação. O paralelismo entre transformação e máquina ou sistema dinâmico torna-se mais claro se atentarmos no gráfico cinemático da transformação. A transformação é, assim, a representação canónica da máquina. Um exemplo dado (a partir de uma obra de Tinbergen) é o “ritual de acasalamento” de dois peixes-espinho ocorrendo num determinado ambiente, que considera poder ser descrito por um gráfico cinemático que traduz uma trajectória de comportamento (encadeamento dos comportamentos de macho e fêmea). Ashby só considera “máquinas determinadas”, no sentido em que o comportamento dessa máquina é paralelo ao de uma transformação fechada e a valor único. No mesmo sentido, só são considerados sistemas dinâmicos determinados, porque “a ciência recusa estudar os outros tipos” de sistemas, embora não seja de excluir dogmaticamente que eles existam no mundo (Ashby 1956:41). O autor, que claramente está a concentrar-se nos aspectos formais das máquinas e dos sistemas dinâmicos, diz que muitas vezes o operador de transformação está mal definido ou é um tanto ou quanto arbitrário, mas que isso não tem grande importância, porque “a transformação está, contudo, perfeitamente bem definida, porque se refere apenas aos factos das mudanças e não às mais ou menos hipotéticas razões para esses factos” (Ashby 1956:26). As máquinas acopladas e o estudo dos sistemas complexos. Passemos agora do caso em que uma transformação corresponde

104

Cibernética.indd 104

18-01-2007 17:28:12


a uma máquina que funciona isoladamente ao caso de uma transformação que representa uma máquina que muda de comportamento por influência de algo que lhe é exterior (como uma grua controlada por um operador ou um músculo controlado por um nervo – exemplos de Ashby). Se tivermos, sobre quatro operandos (a, b, c, d) as três seguintes transformações

R1 :↓

a b c d

c d

d b

R2 :↓

a b c b a d

d c

R3 :↓

a b c d c d

d b

podemos traduzi-las numa única matriz:

↓ R1

a c

b d

c d

d b

R2 R3

b d

a c

d d

c b

A máquina que corresponde a esta matriz de transformações tem, além de vários estados possíveis dentro de um mesmo comportamento, três modos de comportamento. Isso depende em geral da influência do exterior (como quando escolhemos num botão em que modo de operação queremos colocar uma máquina). Aquilo que determina que transformação deve ser aplicada (o índice 1, 2 ou 3 no R do exemplo acima) designa-se por parâmetro. A uma máquina real com estas características chama-se um transdutor ou uma máquina com input. O parâmetro é o seu input. O termo transdutor designa (na engenharia eléctrica) um sistema físico em que o input e o output passam por pontos bem definidos e são medidos por variáveis bem definidas – mas isso não é assim nos sistemas biológicos, onde “parâmetros” significa as condições do organismo, incluindo um meio ambiente complexo que é próprio de um organismo vivo em liberdade (Ashby 1956:43-47).

105

Cibernética.indd 105

18-01-2007 17:28:12


Com estes meios compreendemos como funcionam máquinas acopladas. No caso em que a acoplagem não violenta o funcionamento interno das máquinas envolvidas, o que uma máquina faz é afectar o input de outra – de tal forma que podem ser consideradas como uma única máquina. Essas máquinas acopladas podem ser representadas por transformações de transformações e continuam a ser máquinas de comportamento completamente determinado, que se conhece conhecendo as definições de cada máquina e a definição da acoplagem (Ashby 1956:48-53). Ashby considera que esta noção é necessária à compreensão de sistemas complexos. A noção de retroacção é útil para situações elementares (com poucas componentes e relações relativamente simples entre elas), mas revela-se inadequada para tratar com os princípios gerais dos sistemas dinâmicos dotados de comportamentos complexos orientados para objectivos (Ashby 1956:54,81). O verdadeiro interesse da cibernética está no estudo dos grandes sistemas complexos, que têm um grande número de estados do ponto de vista do observador que por eles se interessa, em que o observador em causa não pode observar completamente, ou não pode controlar completamente, ou para os quais não pode realizar todos os cálculos necessários à previsão do respectivo comportamento. Sistemas desse tipo são comuns no mundo da biologia, na sociedade, na economia. Um exemplo é o cérebro. Afirma-se que todo o aparato exposto foi exemplificado para sistemas muito simples mas é válido para os sistemas complexos: as definições matemáticas permanecem válidas, o que pode acontecer é que a sua aplicabilidade a sistemas materiais reais sofra mudanças (por exemplo, o estudo de sistemas muito grandes e complexos pode ser viável apenas estatisticamente). Um sistema considerado deste modo pode ser estudado de muitas formas: por exemplo, a riqueza das conexões entre as suas partes, que podem ser praticamente independentes ou estarem fortemente acopladas (uma espécie animal que viva em condições de muito baixa densidade populacional

106

Cibernética.indd 106

18-01-2007 17:28:12


pode reduzir à insignificância as relações de cooperação e competição) (Ashby 1956:61-72). Central na abordagem de Ashby aos sistemas complexos é a noção de estabilidade. Num sistema que passa por uma série de modificações, muitas vezes podemos observar certas invariantes ao longo dessa trajectória. Se o não conseguimos, detectamos instabilidade. Um estado de equilíbrio pode ser representado pelos operandos de uma transformação que não são modificados pelo operador. O equilíbrio pode traduzir-se num ciclo. A transformação

T :↓

a b c d e c h b h a

f c

g c

h g

conduz sempre o sistema a uma determinado ciclo, o qual pode ser representado pelo seguinte gráfico cinemático:

c

→ b

↑ ↓ g ← e Os estados a, d, f, h não estão representados no ciclo, mas conduzem sempre ao mesmo ciclo, do qual o sistema nunca se afasta uma vez atingido. Por vezes um sistema só permanece estável se se mantiver numa determinada região dos seus estados possíveis. Quando falamos de um sistema dinâmico em equilíbrio, o que está em causa é a capacidade do sistema para absorver uma certa quantidade de afastamento relativamente aos seus ciclos de equilíbrio (Ashby 1956:73-78). Quando Ashby introduz o seu Homeostato, uma das mais famosas máquinas cibernéticas (de que falaremos mais tarde), pretende precisamente incarnar este conceito. Uma “epistemologia científica”. Ashby quer desenvolver uma epistemologia científica (Ashby 1956:87) e usa nessa diligência a

107

Cibernética.indd 107

18-01-2007 17:28:12


noção de “caixa negra”. Uma caixa negra é (como uma máquina que não podemos abrir) um qualquer tipo de sistema cujo funcionamento interno não conhecemos directamente, mas apenas através da acção que podemos exercer sobre ele (fornecendo input) e da observação que podemos fazer do seu comportamento (captando o seu output). Um experimentador e uma caixa negra podem ser estudados como um sistema formado por dois subsistemas acoplados com retroacção, desde que para cada caso se tenha feito a escolha de quais os inputs e outputs que serão tidos em conta. Para isso Ashby introduz o que designa por “convenção inofensiva”: qualquer que seja o tipo de input, ele é substituído ou representado por um conjunto de mostradores de ponteiros; o mesmo se fará com o output. Assim, o experimentador estará como um engenheiro ao comando de um navio, que actua sobre as máquinas por meio de alavancas e ordens à tripulação e verifica o resultado da sua acção numa série de mostradores. Afirma-se que esta convenção é adequada para representação da grande maioria dos sistemas naturais, incluindo os biológicos e os económicos (Ashby 1956:88). Como é que o experimentador desenvolve a sua investigação neste quadro? O experimentador manipula o input, observa o output, regista tudo num protocolo que ordena os acontecimentos no tempo. “Assim, qualquer sistema, fundamentalmente, é investigado pela elaboração de um longo protocolo, traçado no tempo, mostrando a sequência de estados de input e de output”. Para tal, nenhuma competência particular é necessária ao experimentador: não faz qualquer diferença que a variação do input seja aleatória, não tem de haver qualquer justificação para preferir este ou aquele padrão de variação do input (Ashby 1956:88-89). Noutros termos: não é necessária qualquer teoria, basta conhecer os factos. Não vamos aqui analisar essa ilusão persistente, apenas assinalamos que ela é recorrente ao longo desta obra, onde se repete inúmeras vezes que para compreender um sistema basta saber quais são os seus comportamentos observáveis, não sendo

108

Cibernética.indd 108

18-01-2007 17:28:12


necessário saber o porquê desses comportamentos (por exemplo, Ashby 1956:56). Tudo isto pode, mais uma vez, ser representado por uma transformação. Seja que α e β são os dois inputs possíveis de um sistema; seja que nesse sistema só podemos considerar quatro estados de output: f, g, h, j . Podemos representar uma série de observações na seguinte forma: Tempo: 1 Estado: αf

2 αj

3 αf

4 αf

5 αf

6 7 8 9 10 11 12 13 14 15 16 17 ßf ßh ßh αh αj ß αh ßj ßf αh ßj αf

Todo o conhecimento que pode ser obtido acerca de uma caixa negra resulta da recodificação do protocolo, de modo, por exemplo, a encontrar certas regularidades no comportamento (Ashby 1956:89). Esse tipo de análise do protocolo pode permitir, por exemplo, determinar se duas máquinas são isomórficas. Duas máquinas podem ser muito diferentes e, contudo, serem similares em aspectos importantes do seu comportamento. Por exemplo, uma máquina eléctrica e outra que o não seja podem, ambas, ter do exterior uma aparência semelhante e um comportamento que não somos capazes de distinguir. Uma equação ou um sistema de equações que descreva o funcionamento dessas máquinas, é outra máquina que, num certo aspecto, funciona de modo semelhante (Ashby 1956:95-96). O isomorfismo entre duas máquinas pode ser descoberto por análise dos respectivos gráficos cinemáticos. Sejam duas máquinas M e N , assim representadas:

↓ a b c M :α a c d β b a d

↓ g N :δ k ε k

d c c

h j h

j h g

k g g

109

Cibernética.indd 109

18-01-2007 17:28:12


M e N parecem, à primeira vista, muito diferentes. Se traçarmos imediatamente gráficos cinemáticos de cada uma delas, eles serão bastante diferentes. Mas podem ser encontrados gráficos cinemáticos que representam adequadamente as duas máquinas e que evidenciam as suas semelhanças. Vejamos:

α a d

b a ↓ ඼ c d

β ඼

ε b

h

c

k

඼

j h ↓ g k

δ ඼

i

඼

g

Máquinas para as quais pode ser encontrada uma descrição que evidencie este tipo de relação, são máquinas isomórficas. A ideia de isomorfismo (bem como de formas mais fracas de similitude entre sistemas) é mobilizada para suportar a noção de modelo: uma máquina, uma equação ou um sistema de equações, uma “máquina viva” – podem ser modelos uns dos outros. Um rato de lata e um rato vivo podem ser modelo um do outro, desde que ignoremos a matéria e consideremos o que está em causa nas representações de sistemas que temos vindo a utilizar (Ashby 1956:109). Deste modo, o estudo dos objectos reais é o estudo de “caixas negras” e protocolos com elas relacionados. Concentramo-nos apenas no fluxo de informação entre o experimentador e o seu ambiente, de tal modo que o estudo do mundo real não é mais do que o estudo de transdutores (Ashby 1956:110). Teremos, no entanto, de evitar a armadilha que representa o problema da emergência: conhecer o funcionamento das partes de um sistema não garante a priori que compreendamos só por isso como funciona o todo. Contudo, para Ashby o que chamamos “emergência” (propriedades do todo que nos parecem irredutíveis às propriedades das partes) resulta apenas da nossa ignorância acerca do sistema em causa, porque essa “emergência” desvane-

110

Cibernética.indd 110

18-01-2007 17:28:13


cer-se-ia se conhecêssemos melhor e mais completamente o funcionamento das partes. Por exemplo, o conhecimento detalhado de um organismo capaz de auto-reprodução explicaria mecanicamente essa capacidade (Ashby 1956:110-112). Uma leitura mecanicista da “história” de um sistema. Ashby opera uma integração de todos os grandes conceitos cibernéticos no seu empreendimento, reduzindo tudo a “máquinas” representáveis por “transformações”. Também as noções de informação e comunicação são assim representadas (transformações de mensagens em códigos e de códigos em mensagens): a “forma” da informação e da codificação é a “forma” de todas as máquinas, incluindo as biológicas e as sociais. Do mesmo modo, a teoria da informação serve para conceber como funcionam vastos sistemas de máquinas acopladas: uma mensagem (relativamente à qual nada interessa o “sentido”) refere-se a uma sucessão de estados em que, devido à acoplagem de dois sistemas, o output de um é o input de outro (Ashby 1956:143-144). Mas uma aplicação mais generalizada e ambiciosa desse intrumento é dada pela representação de sistemas complexos – incluindo a respectiva dinâmica temporal – por meio de sistemas de máquinas de Markov. Aproximamo-nos, assim, da ideia da possibilidade de uma representação mecanicista da própria história. Vejamos como. Uma “máquina estocástica” ainda é “determinada” num certo sentido (Ashby 1956: 161-163). A seguinte matriz de probabilidades de transição descreve uma máquina desse tipo (sendo que as probabilidades representam frequências observadas):

↓ M A P

M 1 3

4 4

0

A

P

3

1

4

0

3

1

1

4

8 4 8

111

Cibernética.indd 111

18-01-2007 17:28:13


O que assim se representa significa, por exemplo, que a partir do estado A a probabilidade de se dar uma transição para o estado M é de ¾ e a probabilidade de se dar uma transição para o estado P é de ¼ , sendo nula a probabilidade de se manter o estado A . Ashby apresenta a noção de processo/cadeia de Markov no seu formalismo. A matriz de probabilidades de transição antes apresentada pode ser interpretada como descrição do comportamento de um sistema em função do seu passado observado. Suponhamos que queremos descrever o comportamento de uma colónia de insectos num charco. Os insectos movem-se entre a margem (M), a água (A) e as pedras (P) que sobressaem das águas pouco profundas. De onde para onde se movem esses insectos? A matriz acima responde a essa questão e representa uma cadeia de Markov. Mesmo que não saibamos (e não sabemos) como se comporta cada insecto individualmente, sabemos como se comporta o sistema (Ashby 1956:165-168). Há uma dificuldade neste uso das cadeias de Markov: as probabilidades de transição não podem depender dos estados anteriores ao estado que funciona como operando da transformação. O recurso à “história” do sistema é, assim, limitado (em cada “momento” só conta o “momento” anterior). Mas essa situação pode ser representada por uma matriz semelhante em que os operandos e os resultados da transformação representarão uma “pequena história” de estados. Por exemplo, na seguinte matriz, o que se considera são sequências de dois estados – e o que se descreve é quais sequências de dois estados se seguem a quais sequências de dois estados, ainda em termos de probabilidades.

↓ (C , C ) (C , D) ( D, C ) ( D, D )

(C , C ) (C , D) ( D, C ) ( D, D) 0 1 0 0

0 0 1 1

2 2

1 0 0 0

0 0 1 1

2 2

112

Cibernética.indd 112

18-01-2007 17:28:13


Para considerar uma “pequena história” de cinco estados, os elementos a considerar poderiam ter uma forma do género (A,B,C,D,E). Segundo Ashby, este método pode ser seguido qualquer que seja o número de passos passados que tenham de ser tidos em conta para dar conta do comportamento do sistema – e isso é importante, porque permite ir de uma percepção de um sistema como não-determinado para a percepção do mesmo sistema como sendo determinado (Ashby 1956:170-172). Agora, a representação adequada de grandes sistemas complexos (como os sistemas biológicos) é dada por uma máquina Markoviana com input. Uma máquina Markoviana com input é um conjunto de máquinas de Markov, cada uma delas com um parâmetro cujo valor indica qual a matriz que deve ser usada num determinado momento para calcular o comportamento da máquina (Ashby 1956:225). Um sistema dessas máquinas acopladas é definido, além disso, pelo respectivo modo de acoplagem (representado por uma transformação). Trataremos agora de dar um exemplo de um sistema de duas máquinas Markovianas com input acopladas entre si (Ashby 1956:227,285). Comecemos por dar as matrizes que descrevem as duas máquinas. M: máquina Markoviana com input (parâmetros α , β ) :

↓ a b c a 0,2 0,3 0,3 α: b − 0,7 0,2 c 0,8 − 0,5

↓ a b c a 0,3 0,9 0,5 β: b 0,6 0,1 0,5 c 0,1 − −

Isto significa, por exemplo, que se o selector de comportamento da máquina M estiver em α (se a máquina for posta a funcionar no modo ou segundo o parâmetro α ), a probabilidade de que uma ocorrência do estado a seja seguida de uma ocorrência do estado

113

Cibernética.indd 113

18-01-2007 17:28:13


c é de 0,8. Debaixo do mesmo parâmetro, é nula a probabilidade das seguintes transições de estado: a → b, b → c . N: máquina Markoviana com input (parâmetros δ , ε ,θ ) :

↓ e f δ : e 0,7 0,5 f 0,3 0,5

↓ e f θ : e 0,5 0,4 f 0,5 0,6

↓ e f ε : e 0,2 0,7 f 0,8 0,3

Estas matrizes são uma forma gráfica de apresentar uma transformação com transições de estado probabilistas. Uma vez representada cada uma das máquinas que são parte do sistema, há que descrever a acoplagem entre elas. A acoplagem é também representada por transformações. Estando as máquinas acopladas, de tal modo que o output de uma determina o input da outra, o que é esclarecido pela transformação é a relação entre o estado de uma máquina e o parâmetro que define o comportamento da outra.4 Neste caso, as transformações que definem o modo de acoplagem entre as máquinas são as seguintes:

a b c ε δ θ

e β

f α

Isto significa, por exemplo: se a máquina M estiver no estado b, a máquina N funciona de acordo com o parâmetro δ ; se a máquina N estiver no estado e, a máquina M funciona de acordo com o parâmetro β .

4 É como se tivéssemos dois robots, sendo que cada um “mexe nos botões” do outro. Num exemplo pouco cuidado, se o robot A estiver “cansado” pode desligar o robot B, se a câmara de vídeo do robot B estiver com falta de luz pode “mandar” o robot A ligar a luz.

114

Cibernética.indd 114

18-01-2007 17:28:13


Vejamos agora qual é a probabilidade de que ocorra no sistema a seguinte transição de estado: (b, e) → (a, f ) . Isto é: qual é a probabilidade de que estando M no estado b e N no estado e , passe M ao estado a e N ao estado f ? A resposta calcula-se como segue. Se N está no estado e, M comporta-se segundo a matriz β . Nessa matriz, a probabilidade da transição b → a é de 0,9. Se M está no estado b, N comporta-se segundo a matriz δ . Nessa matriz, a probabilidade da transição e → f é de 0,3. O produto das duas probabilidades parciais é 0,27. A probabilidade de que este sistema de máquinas markovianas com input acopladas realize a transição de estados (b, e) → (a, f ) é de 0,27. O comportamento de todo o sistema é descrito assim: ↓

ae

be

ce

af

bf

cf

ae

0,06

0,63

0,25

0,14

0,15

0,12

be

0,12

0,07

0,25

0,35

0,08

ce

0,02

0,56

0,20

af

0,24

0,27

0,25

0,06

0,15

0,18

bf

0,48

0,03

0,25

0,35

0,12

cf

0,08

0,24

0,30

Note-se, de passagem, que Ashby considera que é possível estabelecer um isomorfismo entre algumas destas máquinas e as matrizes da teoria dos jogos de von Neumann e Morgenstern, o que aliás ilustra, no seu entender, a aplicabilidade destas máquinas à economia (Ashby 1956:237-238, 241). Mas outras disciplinas deveriam beneficiar desta abordagem: entre elas, a ecologia, a sociologia e a psicoterapia (Ashby 1956:244). A generalidade pretendida para este tipo de abordagem mecanicista é expressa claramente quando se escreve que a consideração do caso “a entidade Ω projecta a máquina M” deve cobrir todos os casos assim exemplificados: os genes que determinam a

115

Cibernética.indd 115

18-01-2007 17:28:13


formação do coração; um mecânico que constrói uma bicicleta; uma parte do cérebro a estruturar redes do sistema nervoso; um gestor a organizar o trabalho numa fábrica para que a produção se desenrole de certa maneira; um matemático a programar um computador para que ele funcione de certa maneira (Ashby 1956:252).

116

Cibernética.indd 116

18-01-2007 17:28:14


AS MÁQUINAS DOS CIBERNÉTICOS

Já anteriormente mencionámos que Warren McCulloch, que presidiu a todas as conferências Macy, distribui na última delas um resumo dos pontos que considerava terem merecido o consenso dos participantes até esse momenton (von Foerster 1955:6980). É muito curioso verificar que, em 1953, data de realização dessa conferência, McCulloch não dá nessa oportunidade qualquer atenção, não menciona sequer, os modernos computadores digitais. Esse facto não pode dever-se a ignorância. Lembremonos, designadamente, da participação de John von Neumann nas primeiras dessas conferências. Trata-se, certamente, de um indicador da percepção teórica que McCulloch tinha dessas máquinas. Dado o papel que as máquinas têm no imaginário dos cibernéticos, consideramos relevante dar aqui um pequeno mostruário de máquinas cibernéticas. Nada do que aqui se vai escrever tem a pretensão de dar a ideia de que estas são as primeiras máquinas ao serviço de uma modelização do vivo. (Cordeschi 2002) apresenta aprofundadamente exemplos muito anteriores desse tipo de abordagem. Um dos verdadeiros precursores dessa estratégia de investigação situa-se mesmo nos primeiros anos do século XX, quando Jacques Loeb publica estudos sobre o comportamento de organismos inferiores inspirados numa concepção mecanicista da vida e, poucos anos depois, Benjamin Miessner e John Hammond Jr. concebem e constroem, inspirando-se nessa concepção, o “cão eléctrico” baseado em fototropismos. Loeb veio a interessar-se por essa versão artificial dos tropismos que eram objecto da sua investigação sobre

117

Cibernética.indd 117

18-01-2007 17:28:14


organismos vivos e considerava que ela suportava as suas teses. Foi, assim, dos primeiros a considerar que um modelo artificial pode constituir um teste de uma hipótese acerca dos mecanismos de um ser vivo, na linha de procurar na causalidade físico-química o nível fundamental de explicação (Cordeschi 2002:3-8). Em todo o caso, o tipo de máquinas que vamos exemplificar estão muito mais perto das possibilidades tecnológicas e teóricas que frutificam nas ciências do artificial do início do século XXI e, além disso, são representativas do movimento cibernético. Shannon e o rato no labirinto Na Oitava Conferência Macy (1951), Shannon apresenta a sua “máquina de resolver labirintos” (von Foerster 1952:173-180). A seguinte descrição sumária apoia-se também em (Cordeschi 2002:158-159). A “máquina de resolver labirintos” é uma plataforma com 5 x 5 casas, cada uma delas com divisórias que podiam ser colocadas ou retiradas, desse modo redesenhando o labirinto. O objecto no labirinto era um ponteiro sensor que se encontrava fixado a um mecanismo com dois motores que o podiam mover nas direcções esquerda/direita e para trás/para a frente. Numa segunda versão da máquina, o ponteiro é substituído por um “rato”, um pequeno magneto com rodas que era controlado por um mecanismo idêntico colocado por baixo da plataforma, o qual guiava o “rato” através de um electromagnete. O objectivo a atingir era que o “rato” chegasse a uma determinada casa do labirinto, previamente definida e que o circuito eléctrico “reconhecia” como “objectivo”. O “rato” explora as casas por que passa de forma sistemática, movendo-se em cada uma delas em todas as direcções possíveis e assim detectando por onde pode e por onde não pode prosseguir (esbarra ou não com uma divisória). A cada casa do labirinto está associado um par de relés,

118

Cibernética.indd 118

18-01-2007 17:28:14


o qual regista a saída que o “rato” utilizou para prosseguir a sua procura na última vez que aí passou (se o “rato” teve de voltar atrás para corrigir o caminho, “esquece” os movimentos que não deram resultado). Quando o “rato” atinge o objectivo, o motor desliga, uma lampa acende-se e uma campainha toca. Os relés não mudam mais de estado e, a partir daí, o caminho para o objectivo está fixado: se o “rato” for colocado de novo no ponto de partida ou num ponto do caminho “memorizado”, seguirá a trajectória bem sucedida directamente. Se o “rato” for colocado numa zona fora dessa trajectória, segue o comportamento exploratório até conseguir chegar a um ponto do caminho “conhecido” e, a partir daí, segue a pista que os relés fixaram. Note-se que o “rato” não tem qualquer espécie de autonomia, sendo rigorosamente controlado pelo seu “ambiente” (a infra-

Shannon com o seu “rato no labirinto”. Foto dos Laboratórios Bell, em http://www.bell-labs.com/news/2001/february/26/shannon.jpeg.

119

Cibernética.indd 119

18-01-2007 17:28:14


estrutura do labirinto). Na concepção de Shannon, a máquina “aprende” por tentativa e erro – mas o “rato” é apenas a forma de dar a ver o funcionamento da máquina. Que se tenha escolhido a forma de um animal num labirinto como apresentação do mecanismo é um exemplo da estratégia que consiste em fornecer uma leitura do significado da máquina que assenta, não nas características intrínsecas da própria máquina, mas num apelo à atribuição de significado pelo observador humano. Que deixe de se usar um mero ponteiro e se passe a ter um “rato” – e logo se obtém uma adesão e uma construção significativa nova. Sem que nada realmente tenha mudado no próprio mecanismo. O Homeostato de Ashby Ashby, inspirado na frase de Claude Bernard segundo a qual “a fixidez do milieu interno é a condição da vida livre” e nas ideias de Walter Cannon acerca da homeostasia (a capacidade de qualquer organismo vivo para manter relativamente constante um certo estado de equilíbrio obtido de forma dinâmica), vai construir uma máquina que realize o mesmo princípio. Os princípios do Homeostato são apresentados em Design for a Brain, publicado em 1952. Esta máquina (como vimos) é uma incarnação do conceito de estabilidade de um sistema, desenvolvido em (Ashby 1956) como noção-chave do seu pensamento acerca dos sistemas complexos. Seguiremos nesta apresentação (de Latil 1953:270-276). O homeostato é uma máquina constituída por quatro unidades exactamente iguais e que se encontram ligadas entre si de forma perfeitamente simétrica. O elemento central de cada unidade é uma válvula eléctrica5, em que um dos pólos recebe corrente das outras 5 As válvulas eléctricas são componentes que se baseiam na propriedade que têm os metais de, quando aquecidos, libertarem electrões da sua superfície. Têm o aspecto de lâmpadas eléctricas e, no seu formato mais simples, descrevem-se como

120

Cibernética.indd 120

18-01-2007 17:28:16


unidades, o outro pólo passa corrente para as outras unidades e a grelha (colocada entre os dois pólos e que controla a corrente de passa do negativo para o positivo) está ligada a um dispositivo magnético que mede a corrente que está a passar. A quantidade de corrente que está a passar pela grelha de controlo da válvula é medida por um indicador de agulha magnética cuja posição estável é uma estreita zona central do mostrador. A corrente que cada unidade envia para as outras depende da posição dessa agulha magnética: se ela estiver centrada no mostrador, a corrente fornecida a cada válvula não é alterada; se ela se desviar da posição de equilíbrio, essa variação determinará (consoante o desvio seja para mais ou para menos) um aumento ou uma diminuição da corrente que passa na grelha dessa válvula e, portanto, da corrente enviada para as outras unidades. Com estas quatro unidades, ligadas entre si, forma-se o homeostato: a entrada de corrente em cada unidade é exactamente a corrente que vem das outras três unidades. Pela construção indicada, o sistema tende a estar em permanente equilíbrio (todas as agulhas magnéticas na posição central) e, se for perturbado, tende a regressar rapidamente a essa posição de equilíbrio. Esse comportamento deve-se à completa interacção dos vários elementos do sistema, que “procuram” sempre o equilíbrio e resistem no seu conjunto a qualquer influência exterior, independentemente da variedade das vias para prosseguir esse fim: segue. Dentro de um invólucro isolante, resistente a altas temperaturas e no interior do qual se fez vácuo, tem-se um filamento recoberto de uma solução de electrões livres, que se libertam para uma nuvem de electrões quando o filamento é aquecido pela passagem de corrente. Dentro do mesmo invólucro, existe uma placa metálica a que se aplica um potencial positivo. É assim criada uma corrente de electrões do filamento para a placa. Na válvula só há corrente de electrões num sentido. A intensidade dessa corrente pode ser controlada introduzindo outros elementos, como grelhas que se interpõem entre os dois pólos básicos. Fazendo variar a corrente que passa nessas grelhas é possível controlar o comportamento da válvula. Os amplificadores são válvulas que usam este mecanismo.

121

Cibernética.indd 121

18-01-2007 17:28:16


calculou-se que, considerando todos os graus de liberdade de cada unidade do homeostato, havia mais de 300.000 combinações possíveis do estado dos seus elementos que permitiam atingir a homeostase (todos os ponteiros em posição de equilíbrio). Ashby participara, com duas comunicações, na nona conferência Macy (1952). Na terceira apresentação da conferência (von Foerster 1953:73-108) esclarece alguns dos aspectos filosóficos do seu trabalho com o homeostato. O ponto de partida é claro: “Podemos considerar o rato vivo como sendo essencialmente similar ao rato-máquina e podemos usar os mesmos princípios físicos e o mesmo método objectivo no estudo de ambos. ” (von Foerster 1953:73) Mas a filosofia subjacente vai ser mais claramente explanada: “Assumo que se o organismo tem de permanecer vivo, um número relativamente pequeno de variáveis essenciais têm de ser mantidas dentro de certos limites fisiológicos [temperatura, açúcar no sangue, água nos tecidos, …]. Cada uma dessas variáveis pode ser representada por um ponteiro num mostrador. (…) Os limites são dados ao dar a espécie a que pertence o organismo: um gato tem de se manter fora de água, um peixe tem de se manter na

Homeostato in (de Latil 1953)

122

Cibernética.indd 122

18-01-2007 17:28:16


água. Não é assunto para o gato pensar em humidade, mas sim manter-se seco. Do mesmo modo, assumirei que o nosso organismo, seja ele qual for, será julgado simplesmente por ter ou não ter sucesso em manter as suas variáveis essenciais dentro de certos limites dados. Isto, claro, não é peculiar dos organismos vivos. Um engenheiro ao painel de controlo de um barco tem exactamente a mesma tarefa. (…) O problema é, pois, uniforme para o inanimado e para o animado.” (von Foerster 1953:73) A questão acerca de como tudo funciona passa necessariamente pela especificação do ambiente: a questão é, precisamente, como é que o organismo vai lutar com o ambiente. Isso implica que o organismo tem de ter alguma forma de influenciar o ambiente: “por isso é preciso algum canal do cérebro para o ambiente”: braços, pernas, choro da criança, dentes do cão para morder (von Foerster 1953:74). (Note-se como o corpo parece ser entendido como um “mero” canal.) Temos, então, que o organismo e o seu ambiente formam um sistema com retroacção. A acção do ambiente é representada pelo operador A, que converte a acção que vem do organismo em efeitos que devolve ao organismo. O problema do organismo é converter o seu cérebro num operador inverso, A-1, que comande a acção necessária para desfazer aquelas acções do ambiente que perturbem o seu equilíbrio homeostático. O que interessa a Ashby é esse sistema: quando von Bonin lhe pergunta se não teria interesse deixar o ambiente mal especificado e concentrar-se na questão do funcionamento do “cérebro”, responde: “O que tem de ser discutido não é o que o ‘cérebro´ fará, mas o que fará o ‘sistema’, sendo que o ‘sistema’ é a acção mútua do cérebro e do ambiente um sobre o outro” (von Foerster 1953:86). O que o “organismo” tem de encontrar é um padrão de posições para os diferentes interruptores da sua máquina que garanta a sobrevivência desta – e se isso é ou não sempre possível é mais uma questão para um matemático do que para um biólogo (von Foerster 1953:75).

123

Cibernética.indd 123

18-01-2007 17:28:16


É claro que o desenrolar da discussão mostra que há inúmeros factores que tornam o seu homeostato uma extrema simplificação de qualquer relação entre um organismo e um ambiente, mas a maioria dos intervenientes não questiona o ponto de partida epistemológico de Ashby. Há, contudo, a certa altura uma questão pertinente desse ponto de vista, quando Bigelow questiona Ashby por ele descrever o comportamento do homeostato como “aprendizagem”: “Esta máquina encontra uma solução, concedo. (…) Mas pondero porque é que, em sua opinião, encontrar uma solução implica necessariamente aprender alguma coisa.” (von Foerster 1953:103) Ashby ou não entende ou limita-se a descartar a questão, porque não dá qualquer resposta substantiva a essa tentativa de limar as interpretações que Ashby tenta impor: o que Bigelow diz, afinal, é que designar por “aprendizagem” o comportamento do homeostato é ir além do que a máquina objectivamente faz, é uma atribuição do observador. Ashby continua a responder e comete um tipo de falácia que nos parece estar no centro de muitas abordagens deste género: “Ashby : Concorda que um animal, depois de aprender alguma coisa, se comporta de maneira diferente? Bigelow : Concordo. Ashby : Bom, o homeostato comporta-se de maneira diferente.” (von Foerster 1953:103) No contexto, é claro que a conclusão de Ashby pretende afirmar que, então, o homeostato aprende. Ashby comete uma falácia fácil de identificar: (( A → B) B) → A. Esta falácia tem dado uma pretensa legitimidade a muitos raciocínios do género: se certo conjunto de movimentos físicos de um sistema artificial é similar a um certo conjunto de movimentos físicos de um sistema natural inteligente (ou consciente, ou com mente), então aquele sistema artificial é inteligente (ou consciente, ou com mente). Interessa, contudo, dar outro ponto de observação acerca do modo como Ashby pensava as máquinas. Na segunda apresentação que Ashby faz à nona conferência Macy “(von Foerster

124

Cibernética.indd 124

18-01-2007 17:28:16


1953:151-154)), o assunto remete para um artigo publicado no mesmo ano sobre uma máquina de jogar xadrez. A questão fundamental que suscita é a seguinte: o projectista humano de tal máquina sabe alguma coisa de xadrez: será um jogador de um certo nível; poderíamos pensar em como esse projectista “ensina” à máquina aquilo que sabe; mas, como queremos uma máquina capaz de ganhar ao jogo contra o seu projectista, necessitamos de outra abordagem: como fazer uma máquina que vá além do que o humano realizou nela. Esta questão de fundo é traduzida numa situação prática: seja uma posição no tabuleiro (certas peças em certas casas); seja que tal posição aparenta ser relativamente simples, mas na verdade contém uma jogada possível que é brilhante mas que só com muita subtileza será detectada: mesmo os maiores mestres dificilmente a descobririam; que tipo de jogador seria capaz dessa jogada? A resposta de Ashby é: ou um principiante (é tão fraco que pode fazer qualquer jogada disparatada) ou um jogador que jogue de forma puramente aleatória. É essa, portanto, a sua receita para construir uma máquina de jogar xadrez capaz de ganhar jogos aos melhores dos seus projectistas: uma máquina aleatória. Isso está de acordo com a sua concepção geral da máquina homeostática. Mais concretamente, a máquina devia ser capaz de formar ao acaso estratégias de jogo (estratégias como, por exemplo, manter as torres sempre o mais afastadas possível uma da outra), jogar segundo essas estratégias e depois classificá-las em função de terem conduzido à vitória ou à derrota. Assim, pouco a pouco, apuraria estratégias melhores do que as que um projectista humano seria capaz de lhe dar explicitamente (von Foerster 1953:151-152). É curioso que este modo de pensar antecipa aspectos importantes de técnicas de procura ou heurísticas que serão propostas muitos anos mais tarde. Um exemplo: os algoritmos genéticos. Mas, desse mesmo ponto de vista, convém apontar uma dificuldade que mais tarde será identificada. Por esse método puramente aleatório de determinar as suas jogadas é perfeitamente possível que a

125

Cibernética.indd 125

18-01-2007 17:28:16


máquina nunca chegue a ganhar nenhum jogo e, desse modo, não se poderá concretizar um aspecto essencial da proposta: que as diferentes estratégias sejam “pontuadas” positiva ou negativamente conforme vençam ou percam os encontros (se nunca nenhuma vencer, não chegam a distinguir-se umas das outras). Se nos colocarmos do ponto de vista da história dos computadores jogadores de xadrez, torna-se curioso dar atenção a uma exigência que Ashby faz à sua máquina. O objectivo não é que a máquina bata o humano, mas antes que a máquina supere no jogo o humano. Concretizando, diz que quer “excluir todos os cérebros mecânicos que batem o seu projectista pelo puro poder bruto de análise” (von Foerster 1953:151). Ashby entende por análise algo que poderíamos hoje designar simplesmente como análise combinatória das ramificações possíveis do jogo após cada uma das jogadas alternativas possíveis num dado momento (von Foerster 1953:154). O seu objectivo é, então, que a máquina não ganhe ao homem com base nessa capacidade. Propõe mesmo que se limite essa capacidade de análise da máquina à capacidade que tenha o seu concorrente humano: se o jogador humano só é capaz de prever o encadeamento de três jogadas, faça-se com que a máquina também só possa analisar até três jogadas à frente. O que pretende é que a máquina tenha de ganhar com base noutra capacidade: a de formular estratégias, que a máquina construa o seu próprio critério de apreciação do jogo: “O problema é, então, como é que a máquina desenvolve melhores critérios para ajuizar do que o seu próprio projectista é capaz.” (von Foerster 1953:151) Este seu objectivo é criticado, nomeadamente por Bigelow, que diz que se se limita a capacidade de analisar (no sentido acima) limita-se igualmente a capacidade de formular estratégias: as duas não poderiam ser separadas (von Foerster 1953:153, 154). O que Ashby rejeita. Ashby, em todo o caso, propõe deste modo uma distinção interessante e que não deixará de ser muitas vezes retomada no futuro.

126

Cibernética.indd 126

18-01-2007 17:28:16


Machina speculatrix As “tartarugas” de Grey Walter (que ele designava por Machina speculatrix) foram os robots cibernéticos que alcançaram mais popularidade, sendo apresentadas em contexto científico mas obtendo também durante anos vastas referências na imprensa e mesmo na televisão. Um dos meios de divulgação foi a atenção que (de Latil 1953) lhes deu, conferindo-lhes um tratamento que recorria aos mesmos abusos de linguagem que o próprio Grey Walter apreciava. A foto que juntamos (de Latil 1953: ilustração aposta à página 31), mostrando o senhor e a senhora Walter, o filho de ambos e a “tartaruga” Elsie, levava a seguinte legenda: Ce couple a deux enfants dont un électronique. Grey Walter aceitaria designar o seu trabalho de “imitação científica da vida” como “electrobiologia”. O seu objectivo é criar modelos do cérebro que permitam aprender acerca da vida pelo método da imitação tanto como pelo método da observação, desde que a imitação (ao contrário dos antigos autómatos) não incida sobre a aparência da máquina, mas sobre a sua acção (Walter 1953:74-76,78).

127

Cibernética.indd 127

18-01-2007 17:28:16


Dada a enorme quantidade de elementos que constituem o cérebro de um animal superior, parece-lhe irrealista tentar construir modelos que imitem o cérebro em número de unidades e considera mais útil estudar o significado funcional dos esquemas de interconexão dessas unidades: que é possível obter um reportório de comportamentos extremamente variado com um número muito limitado de elementos, desde que nos concentremos na riqueza das interacções (Walter 1953:77-78). Para dar uma descrição suficientemente clara do que estava em causa no projecto de Grey Walter, sem entrar em demasiado detalhe, vamos concentrar-nos nas duas primeiras “tartarugas”: Elmer (ELectroMEchanical Robot) e Elsie (Electromechanical Light-Sensitive robot with Internal and External stability), construídas nos anos de 1948 e 1949. As principais fontes de informação directas sobre estes robots são um artigo publicado por Walter na Scientific American em 1950 (Walter 1950) e The Living Brain (Walter 1953). Contudo, só trabalhos relativamente recentes que beneficiaram do acesso a materiais não publicados é que permitiram uma compreensão mais exacta do que eram e do que faziam e não faziam as “tartarugas”. Por isso, recorremos, no que se segue, além de (Walter 1953:74-87,199-202), a (Cordeschi 2002:155-158) e (Holland 2003:2098-2102). Cada máquina tinha a estrutura de um carrinho de três rodas, sendo que as rodas traseiras são passivas e a roda da frente é a responsável pela tracção e pela direcção. A aparência de “tartaruga” era dada por uma carapaça metálica que cobria praticamente todo o conjunto. A máquina era dotada de dois sensores (uma célula fotoeléctrica e um comutador mecânico sensível à pressão) e dois efectores (dois pequenos motores eléctricos, um responsável pela tracção e outro responsável pela direcção). O essencial do mecanismo eléctrico interno era constituído por duas válvulas amplificadoras e por dois relés. Observando a fotografia seguinte

128

Cibernética.indd 128

18-01-2007 17:28:17


(de Latil 1953: ilustração aposta à página 97) é possível ficar com uma ideia da construção física da máquina (sem carapaça, para se observar o interior).

célula fotoeléctrica baterias

botões do comutador mecânico

lâmpada frontal

motor de direcção que acciona a roda dentada que faz rodar a estrutura vertical sobre si mesma

roda de tracção e de direcção, junto à qual está montado o motor de tracção

Na parte anterior da “tartaruga” encontra-se uma estrutura vertical onde estão montadas algumas das peças mencionadas. No topo a célula fotoeléctrica, em baixo a roda motriz e o respectivo motor de tracção, ao meio uma lâmpada (que em funcionamento se vê através de uma abertura na carapaça) que acende sempre e apenas quando o motor de direcção está em funcionamento. A célula fotoeléctrica está alinhada com a roda da frente e encontrava-se protegida por uma “viseira” de tal modo que só recebia luz numa direcção. Esta estrutura vertical roda sobre si mesma comandada por uma roda dentada que por sua vez é movida pelo motor de direcção instalado no “corpo” do “carrinho”.

129

Cibernética.indd 129

18-01-2007 17:28:17


Na parte superior do “corpo” do “carrinho”, muito próximo da carapaça quando esta esteja colocada, está montado um comutador mecânico com botões que funcionam como sensores de contacto: quando a “tartaruga” se encontra num plano inclinado ou choca com um obstáculo, a carapaça prime esses sensores. Como máquina eléctrica, a “tartaruga” é basicamente constituída por dois circuitos. O primeiro circuito controla a alimentação de cada um dos motores pela bateria. Este circuito é controlado por dois relés electromecânicos6. O segundo circuito controla precisamente o funcionamento desses relés. O elemento central deste segundo circuito são duas válvulas electrónicas funcionando como amplificadores. O diagrama seguinte é uma reconstituição do conjunto (conforme Cordeschi 2002: 156).

6 Os relés são dispositivos mecânicos accionados por uma corrente eléctrica: por meio de contactos que abrem e fecham, permitem controlar (interromper ou completar) circuitos eléctricos. O funcionamento mecânico dos relés (abrir/fechar contacto) é accionado por correntes eléctricas de baixa intensidade (de uma pilha, por exemplo) e permite controlar circuitos eléctricos com correntes de alta intensidade (um motor que funciona a 220 volts, por exemplo).

130

Cibernética.indd 130

18-01-2007 17:28:17


A condutividade eléctrica dos amplificadores (A1 e A2) depende da voltagem presente nas respectivas grelhas (representadas a tracejado). Como se vê, há vários elementos da máquina que modificam essa condição: por exemplo, a célula fotoeléctrica (CF) está ligada à grelha do amplificador A1. Dependendo da posição dos relés, a máquina exibe diferentes comportamentos – o comportamento variável da máquina depende da operação combinada dos dois motores. O esquema da máquina é o de um laço de retroacção em que a máquina é um dos pólos e o ambiente outro pólo. O reportório de comportamentos das tartarugas tem quatro modos de operação: exploração; fototropismo positivo; fototropismo negativo; evitamento de obstáculos. No decurso do comportamento de exploração, o motor de tracção está a meia velocidade, fazendo avançar a máquina devagar na direcção em que esteja a roda da frente. O motor de direcção está na máxima velocidade, fazendo rodar continuamente a estrutura frontal, que inclui a roda motora – há por isso uma mudança contínua de direcção – e a célula fotoeléctrica, que assim está sempre a “esquadrinhar” o ambiente. A combinação de movimento linear e rotação confere uma trajectória cicloidal à máquina. Este comportamento ocorre no escuro ou enquanto não houver luz suficiente para activar a célula fotoeléctrica. O comportamento de fototropismo positivo tem lugar quando, na presença de uma fonte de luz moderada, a célula fotoeléctrica é activada e o motor de direcção deixa de receber corrente (pelo que não pode fazer rodar a estrutura central, mantendo-se assim inalterada a direcção e a posição do “olho”). O motor de tracção recebe corrente máxima e acelera a máquina em direcção à fonte luminosa detectada. Frequentemente, porém, no momento em que a célula fotoeléctrica capta luminosidade a máquina não está virada exactamente para a fonte luminosa. O desvio progressivo daí resultante acaba por reduzir a intensidade da luz recebida abaixo de um determinado limiar. Provoca desse modo uma passagem ao

131

Cibernética.indd 131

18-01-2007 17:28:18


comportamento de exploração, que resulta numa reorientação e regresso ao comportamento de fototropismo positivo (o que pode repetir-se várias vezes). O comportamento de fototropismo negativo tem lugar quando a máquina se aproxima muito da fonte luminosa e a célula fotoeléctrica é impressionada acima de um certo limiar. Nessas circunstâncias, o motor que faz rodar a direcção passa a trabalhar a meia corrente e o motor de tracção opera à velocidade máxima, provocando uma “fuga” da fonte luminosa. O comportamento de evitamento de obstáculos é despoletado quando a carapaça da “tartaruga” toca num obstáculo e o desequilíbrio resultante faz com que ela toque nos sensores de contacto. Isso provoca uma alteração no circuito eléctrico, fazendo com que passe a funcionar como um oscilador, abrindo e fechando os relés 1 e 2 alternada e rapidamente (fazendo alternar o funcionamento dos dois motores). Isso faz com que a máquina vire, recue e avance repetidamente, por vezes empurrando mesmo o obstáculo. Enquanto está nesta condição, a máquina não reage à luz (enquanto funciona como oscilador, o circuito eléctrico é praticamente insensível a outros sinais). Esta condição dura, de cada vez, cerca de um segundo. Poucos anos depois de ter construído as suas primeiras “tartarugas”, Grey Walter fornece uma elaboração dos princípios que essa actividade de modelização devia respeitar (e, segundo ele, respeitava) para alcançar uma “imitação” razoável de um animal simples. Esses princípios são nove e são assim justificados (Walter 1953:82-85): (i) Parcimónia: a natureza poupa em redundância, pelo que as “tartarugas” só têm o número de unidades que correspondem a duas células nervosas e a dois órgãos dos sentidos. (ii) Especulação: a tendência para explorar o ambiente é típica dos animais, coisas que as “tartarugas” fazem (mas não faz o mais elaborado dos computadores). (iii) Tropismo positivo: a susceptibilidade às atracções presentes no ambiente é uma característica animal que as “tar-

132

Cibernética.indd 132

18-01-2007 17:28:18


tarugas” imitam pela sua tendência para se aproximarem das fontes de luminosidade moderada. (iv) Tropismo negativo: certas variáveis perceptivas devem ser repelentes, como neste caso as luzes muito brilhantes. (v) Discernimento: um animal tem de ser capaz de distinguir entre comportamentos eficazes e ineficazes. As “tartarugas” implementam esse discernimento, porque durante a execução do comportamento “evitamento de obstáculo” deixam de prosseguir o objectivo de se aproximarem de uma luz moderada (já que isso de nada serve enquanto não se libertarem do obstáculo). (vi) Optimização: um animal não procura as condições de satisfação máxima de cada uma das suas exigências, antes procura uma satisfação moderada e equilibrada do conjunto das suas necessidades. Nessa linha, as “tartarugas”, além de preferirem a luz moderada, não são como o asno de Buridan: colocadas perante duas fontes luminosas igualmente atractivas, primeiro dirigem-se a uma e depois a outra (transformam um problema espacial num problema temporal). (vii) Auto-reconhecimento: uma vez que são dotadas de uma lâmpada piloto (que só permanece acesa quando funciona o motor de direcção), as “tartarugas” desenvolvem um comportamento de auto-reconhecimento. Quando, com a lâmpada acesa, enfrentam um espelho, dirigem-se para a fonte luminosa que assim detectam. Uma vez que passam ao comportamento de se dirigirem directamente para a luz, o motor de direcção pára e a lâmpada apaga-se. Como a lâmpada se apaga, cessa o comportamento de tropismo positivo e volta a funcionar o motor de direcção, para recomeçar a exploração. Com o motor de direcção de novo a funcionar, a lâmpada acende-se de novo – e recomeça o ciclo. E assim sucessivamente. Walter diz que isto é um

133

Cibernética.indd 133

18-01-2007 17:28:18


comportamento de auto-reconhecimento, de que mesmo muitos animais superiores não são capazes. (viii) Reconhecimento mútuo: pelo mesmo mecanismo descrito anteriormente, duas “tartarugas” desenvolvem um comportamento “social” específico da sua “espécie”. Trata-se de um “desejo” que não pode ser consumado: cada “tartaruga” vê a lâmpada da outra e dirige-se para ela, mas quando está nesse comportamento (tropismo positivo) apaga a sua lâmpada e, assim, desorienta a outra. (ix) Estabilidade interna: as “tartarugas” zelam pela sua própria sobrevivência. Sendo “alimentadas” por baterias, existe uma “cabana” onde está o recarregador de baterias. Essa “cabana” está sinalizada por uma luz intensa. Durante a operação normal, as “tartarugas” não se aproximam muito desse local (fototropismo negativo) – mas, quando as baterias descarregam para lá de um certo ponto, o comportamento dos circuitos eléctricos é modificado de modo que “a moderação dá lugar ao apetite”: a máquina dirige-se à luz intensa, entra na cabana, liga-se ao recarregador de baterias, os motores e os sensores são desligados e só voltam à operação normal depois de ter terminado o período de “refeição” das “tartarugas”. Grey Walter foi um pioneiro da robótica inspirada na biologia. É curioso notar, desse ponto de vista, como descarta, como desinteressantes para a investigação que prosseguia, os computadores. Os computadores, tal como os autómatos baseados em “mecanismos de relojoaria”, são vistos como máquinas de “comportamento predestinado” ao estilo do século XIX, cujo comportamento está limitado a uma série de movimentos planeados com antecedência. A variedade de movimentos proporcionada pela programação não dota a máquina de qualquer autonomia, de qualquer movimento espontâneo, de qualquer forma de auto-regulação (Walter 1953:75,79). Walter,

134

Cibernética.indd 134

18-01-2007 17:28:19


“…moderation gives place to appetite.” Machina speculatrix finds her way home. (Walter 1953: figura 11 e respectiva legenda.) Esta fotografia de sobreposição é obtida colocando uma luz adicional no dorso da “tartaruga”, para melhor identificar a trajectória.

que pertencia ao círculo dos cibernéticos britânicos e, como tal, não reconhecia aos americanos a paternidade das ideias comuns, crítica explicitamente Norbert Wiener neste ponto. Escreve Walter que a programação de máquinas para fins específicos pode resultar em máquinas muito úteis, capazes de suplantar o humano em certos trabalhos – mas essas máquinas não serão de interesse para o fisiologista e nada nos ensinarão sobre o cérebro (Walter 1953:86). Já durante a décima conferência Macy, realizada em 1953, Walter afirmara que era tempo de começar a pensar em máquinas que, além de responderem “sim” ou “não” ou vomitarem séries numéricas, também soubessem responder “talvez” (von Foerster 1955:31). A sua opinião sobre o Homeostato de Ashby também não é muito positiva: considera que o homeostato realmente… não faz nada, é como um gato que só dorme (chama-lhe Machina sopo-

135

Cibernética.indd 135

18-01-2007 17:28:19


ra). Diz que o homeostato, embora seja um magnífico exemplo de auto-regulação por retroacção negativa, se fosse apreciado por um naturalista que observasse o seu comportamento, seria classificado como uma planta (Walter 1953:81). Ora, o que ele quer é um “animal”. Uma vez que a actividade de Grey Walter em torno destas máquinas se prolonga pela década de 1950, vemos como existia nesta altura uma clara proposta de linha de investigação sobre as máquinas como modelo do organismo vivo que fazia da inspiração biológica dos seus modelos um ponto fundamental. Décadas mais tarde outros recuperarão essa inspiração.

136

Cibernética.indd 136

18-01-2007 17:28:19


UMA CONCLUSÃO EM ABERTO

Visitámos os anos de ouro da primeira cibernética, pouco mais de dez anos de intensa produção teórica e alguma experimentação com máquinas de um novo tipo. Na verdade, este impulso inicial foi bloqueado, quase repentinamente, pela emergência do computador digital. Por incrível que possa parecer, os cibernéticos não foram capazes de tirar partido do facto de terem entre si do melhor que se podia encontrar em termos de compreensão do poder dessa nova ferramenta do pensamento e da acção. A centralidade de John von Neumann nas primeiras conferências Macy, e o seu progressivo mas completo afastamento do grupo (consumado na pura e simples ausência das últimas sessões), é um excelente indicador dessa tragédia daquele grupo. As fascinantes tartarugas de Grey Walter não podiam sobreviver, quer como metáfora quer como ferramenta, ao poder massivo do computador electrónico digital. O primeiro computador electrónico digital programável a funcionar nos EUA começou a ser construído em 1943 (o ano da publicação dos artigos fundadores de Rosenblueth, Wiener e Bigelow e de McCulloch e Pitts) e ficou pronto em 1945 (no ano anterior ao início da primeira série de conferências Macy). Em 1956, no mesmo ano em que Ashby publica em Londres a sua introdução à cibernética, John McCarthy cunha a expressão “inteligência artificial”, plasmando-a pela primeira vez no pedido de financiamento para o seminário de Verão em Dartmouth, onde será discutido o que é considerado o primeiro programa de Inteligência Artificial (o “Logic Theorist”, de Newell, Shaw e Simon). O moderno computador digital vai tornar-se a ferramenta básica de muitas das

137

Cibernética.indd 137

18-01-2007 17:28:19


concepções acerca do natural e do artificial que, no essencial, eram partilhadas pelos cibernéticos – mas os cibernéticos, eles, estarão quase completamente de fora dessa viragem. É preciso, mesmo assim, olhar mais ao longe. Hoje é perceptível que a influência da cibernética na ciência e na cultura não se extinguiu, apesar de ter passado a ser menos tematizada. Não é aqui o momento para fazer uma visita ao mundo da nova robótica, da robótica evolucionista ou mesmo da robótica colectiva – mas esses domínios exibem um verdadeiro renascimento de muitas das ideias e das abordagens da cibernética clássica. Desse ponto de vista, a leitura das actas das conferências Macy é verdadeiramente educativa. A influência da cibernética no mundo de hoje vai, contudo, muito para além dos pontos de contacto com este ou aquele domínio de investigação científica. Como escreve Céline Lafontaine, em L’empire cybernétique (Lafontaine 2004), o sonho da primeira cibernética continua vivo e está até agora mais vívido: um mundo sem fronteiras (globalização e novas tecnologias); estruturado por fluxos de informação e pensado a partir da comunicação – encaradas essas como as formas privilegiadas de racionalização da sociedade e do mundo; um mundo com barreiras evanescentes entre humano, animal e máquina – cada vez mais povoado de seres híbridos; onde pela técnica se pode aspirar à imortalidade do humano, desde que este aceite a forma para tal conveniente (Lafontaine 2004:13). Wiener, em The Human Use of Human Beings, obra onde a cibernética se encontra ao serviço de uma visão da sociedade ideal, escreve “quando dou uma ordem a uma máquina, a situação não é essencialmente diferente da que resulta de eu dar uma ordem a outra pessoa” (Wiener 1950:16). Aí nasceu a ideia que hoje temos do cyborg, como conceito pertinente para as ciências sociais. Essa ideia, no entanto, começou por ser um produto da imaginação militar. Na experiência da artilharia anti-aérea, que foi fonte direc-

138

Cibernética.indd 138

18-01-2007 17:28:19


ta de inspiração da cibernética, não há uma fronteira clara entre aviador e avião, nem entre artilheiro e peça de artilharia. Por isso se compreende que num panfleto, de 1943, do National Research Council (EUA), se escrevesse que o olho humano “é o mais importante instrumento militar que as forças armadas possuem”. Não mais deixarão as “máquinas inteligentes” de se perfilar como candidatos a próteses do humano. Só que esse debate não é necessariamente estranho a um outro, que está já entre nós: o do humano como prótese da máquina.

139

Cibernética.indd 139

18-01-2007 17:28:19


REFERÊNCIAS

(Ashby 1956) ASHBY, W. Ross, An Introduction to Cybernetics, Londres, Chapman & Hall, 1956 (utilizada a versão disponível em linha em http://pcp.vub.ac.be/books/IntroCyb.pdf ) (Carnap e Bar-Hillel 1952) CARNAP, Rudolf, e BAR-HILLEL, Yehoshua, An Outline of a Theory of Semantic Information, Technical Report Nº 247, Research Laboratory of Electronics, Cambridge, Massachusetts, Massachusetts Institute of Technology, 1952 (reprodução digital do original disponibilizada em linha pelo M.I.T., no endereço http://hdl. handle.net/1721.1/4821 , onde foi acedida em 23 de Março de 2004) (Cordeschi 2002) CORDESCHI, Roberto, The Discovery of the Artificial. Behavior, Mind and Machines Before and Beyond Cybernetics, Dordrecht, Kluwer Academic Publishers, 2002 (de Latil 1953) de LATIL, Pierre, Introduction à la Cybernétique – La Pensée Artificielle, Paris, Gallimard, 1953 (Dupuy 1994) DUPUY, Jean-Pierre, Aux origines des sciences cognitives, Paris, La Découverre, 1999 (a primeira edição é de 1994) (Elkana e Ben-Menahen 1993) ELKANA, Y. e BEN-MENAHEN, Y., “Entropia”, artigo in Enciclopédia Einaudi, vol. 24 (Física), Lisboa, INCM, 1993, pp.385-416 (Heims 1980) HEIMS, Steve Joshua, John von Neumann and Norbert Wiener: From Mathematics to the Techonologies of Life and Death, Cambridge (Massachusetts), The MIT Press, 1980 (Heims 1991) HEIMS, Steve Joshua, The Cybernetics Group, Cambridge (Massachusetts), The MIT Press, 1991 (Heylighen e Joslyn 2001) HEYLIGHEN, Francis, e JOSLYN, Cliff, entrada “Cybernetics and Second-Order Cybernetics”, in MEYERS, R.A. (ed.), Encyclopedia of Physical Science and Techonoly (3rd ed.), Nova York, Academic Press, 2001

Cibernética.indd 140

18-01-2007 17:28:20


(Holland 2003) HOLLAND, Owen, “Exploration and high adventure: the legacy of Grey Walter”, in Philosophical Transactions of the Royal Society of London, A, 361, pp. 2085-2121 (Jeffress 1951) JEFFRESS, Lloyd A. (ed.), Cerebral Mechanisms in Behavior. The Hixon Symposium, New York e Londres, John Wiley & Sons e Chapman & Hall, 1951 (Lafontaine 2004) LAFONTAINE, Céline, L’empire cybernétique. Des machines à penser à la pensée machine, Paris, Seuil, 2004 (McCulloch 1955) McCULLOCH, Warren S., “Mysterium Iniquitatis of Sinful Man Aspiring into the Place of God”, in The Scientific Monthly, 80 (1), pp. 35-39; referências conforme republicação em (McCulloch 1965:157-164) (McCulloch 1965) McCULLOCH, Warren S., Embodiments of Mind, Cambridge, Massachusetts, The MIT Press, 1989 (edição aumentada de uma recolha de textos publicada em 1965) (McCulloch e Pitts 1943) McCULLOCH, Warren S., e PITTS, Walter, “A Logical Calculus of the Ideas Immanent in Nervous Activity”, in Bulletin of Mathematical Biophysics, 5, pp. 115-133 ; referências conforme republicação em (McCulloch 1965:19-39) (Monteiro 2004) MONTEIRO, João Paulo, Realidade e Cognição, Lisboa, Imprensa Nacional – Casa da Moeda (Rosenblueth et al. 1943) ROSENBLUETH, Arturo, WIENER, Norbert, e BIGELOW, Julian, “Behavior, Purpose and Teleology”, in Philosophy of Science, 10, pp. 18-24 (Segal 2003) SEGAL, Jérôme, Le Zéro et le Un. Histoire de la notion scientifique d’information au 20e siècle, Paris, Éditions Syllepse, 2003 (Shannon 1948) SHANNON, Claude E., “A Mathematical Theory of Communication”, in The Bell System Technical Journal, vol. 27. pp. 379-423 e 623-656, Julho e Outubro de 1948 (as referências são para a versão disponibilizada em linha pelos Laboratórios Bell, no endereço http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf, verificado pela última vez em 23 de Março de 2004; a paginação desta versão não remete para a paginação original) (von Foerster 1950) von FOERSTER, Heinz (ed.), Cybernetics. Circular Causal, and Feedback Mechanisms in Biological and Social Syste-

141

Cibernética.indd 141

18-01-2007 17:28:20


ms. Transactions of the Sixth Conference, March 24-25, 1949, New York, Josiah Macy, Jr. Foundation, 1950 (von Foerster 1951) von FOERSTER, Heinz (ed.), Cybernetics. Circular Causal, and Feedback Mechanisms in Biological and Social Systems. Transactions of the Seventh Conference, March 23-22, 1950, New York, Josiah Macy, Jr. Foundation, 1951 (von Foerster 1952) von FOERSTER, Heinz (ed.), Cybernetics. Circular Causal, and Feedback Mechanisms in Biological and Social Systems. Transactions of the Eighth Conference, March 15-16, 1951, New York, Josiah Macy, Jr. Foundation, 1952 (von Foerster 1953) von FOERSTER, Heinz (ed.), Cybernetics. Circular Causal, and Feedback Mechanisms in Biological and Social Systems. Transactions of the Ninth Conference, March 20-21, 1952, New York, Josiah Macy, Jr. Foundation, 1953 (von Foerster 1955) von FOERSTER, Heinz (ed.), Cybernetics. Circular Causal, and Feedback Mechanisms in Biological and Social Systems. Transactions of the Tenth Conference, April 22-24, 1953, New York, Josiah Macy, Jr. Foundation, 1955 (von Neumann 1948) von NEUMANN, John, “The General and Logical Theory of Automata”, in (Jeffress 1951:1-31) (Walter 1950) WALTER, W. Grey, “An imitation of life”, in Scientific American, 182, pp. 42-45 (Walter 1953) WALTER, Grey W., The Living Brain, Londres, Gerald Duckworth, 1953 (Weaver e Shannon 1949) WEAVER, W. e SHANNON, Claude E., The Mathematical Theory of Communication, Urbana:Illinois, University of Illinois Press, 1949 (Weaver 1949) WEAVER, Warren, “Recente Contributions to the Mathematical Theory of Communication”, in (Weaver e Shannon 1949), pp. 93-117 (Wiener 1948) WIENER, Norbert, Cybernetics, or Control and Communication in the Animal and the Machine, Paris/New York, Hermann et Cie/ John Wiley & Sons, Inc., 1948 (Wiener 1950) WIENER, Norbert, The Human Use of Human Beings. Cybernetics and Society, reimpressão em 1989 da segunda edição de 1954, Londres, Free Association Books, 1989

142

Cibernética.indd 142

18-01-2007 17:28:20


ÍNDICE 9

Prólogo

11

Introdução

13 13 20

Dois artigos fundadores da problemática cibernética (1943) Comportamento, propósito e teleologia Um modelo lógico para as ideias que tem o sistema nervoso

25

A primeira série de Conferências Macy (1946-1948)

33 33 39 47

O “ano cibernético” (1948) Wiener publica Cybernetics Os autómatos auto-reprodutores de von Neumann Claude Shannon, a Teoria Matemática da Comunicação e a Informação

70 70 74 78 85

A segunda série de Conferências Macy (1949-1953) Unificar: a ciência; o natural com o artificial; o homem, o animal e a máquina Expulsar as teorias psicológicas concorrentes O estatuto das ciências sociais Reflexões epistemológicas e temas para o futuro

91 91 99

A cibernética fora dos EUA Uma hierarquia do reino das máquinas Uma receita mecanicista para compreender a complexidade

117 118 120 127

As máquinas dos cibernéticos Shannon e o rato no labirinto O Homeostato de Ashby Machina speculatrix

137

Uma conclusão em aberto

141

Referências

143

Cibernética.indd 143

18-01-2007 17:28:20


A CIBERNÉTICA: ONDE OS REINOS SE FUNDEM

PORFÍRIO SILVA BIBLIOTECA DRAGÕES DO ÉDEN COPYRIGHT QUASI EDIÇÕES APARTADO 562, 4764-901 VILA NOVA DE FAMALICÃO E

PORFÍRIO SILVA (2007)

1.ª EDIÇÃO, JANEIRO 2007 DEPÓSITO LEGAL 000000/07 ISBN 978-989-552-220-0 IMPRESSO NA PAPELMUNDE – SMG, LDA ACABAMENTO NA INFORSETE – AG, LDA VILA NOVA DE FAMALICÃO quasi@doimpensavel.pt www.quasi.com.pt Tel. 252 371 724 Fax. 252 375 164

Cibernética.indd 144

18-01-2007 17:28:20

A Cibernética: Onde os Reinos se Fundem - Porfírio Silva  
Read more
Read more
Similar to
Popular now
Just for you