terça-feira, dezembro 04, 2007

Porque o futuro não precisa de nós




As mais poderosas tecnologias do século XXI - robótica, engenharia genética e nanotecnologia – estão ameaçando fazer dos humanos uma espécie em extinção...Sobreviveremos às nossas tecnologias?
 Bill Joy 
A partir do momento em que me envolvi na pesquisa de novas tecnologias, a dimensão ética desse processo passou a me preocupar, mas foi somente a partir do outono de 1998 que me tornei consciente do tamanho dos perigos que estão à nossa frente no século XXI. Essa tomada de consciência pode ser datada do dia em que encontrei Ray Kurzweil, merecidamente famoso inventor da primeira máquina de leitura para cegos e outras tantas maravilhas.
Nós éramos palestrantes na conferência Gilder’s Telescom. Nos encontramos por acaso no bar do hotel, depois que nossas palestras já haviam terminado. Estava sentado conversando com John Searle, um filósofo da Universidade de Bekerley que fazia estudos sobre a consciência, quando Ray se aproximou, e iniciamos um assunto que me assombraria até os dias de hoje. Eu não havia assistido à palestra que Ray havia dado, nem ao painel em que Ray e John tomaram parte, mas eles retomaram o assunto exatamente a partir do ponto em que haviam parado. Ray dizia que os avanços da tecnologia estavam indo em um ritmo muito acelerado e que ou nós nos tornaríamos robôs, ou acabaríamos nos mesclando a robôs, ou qualquer outra coisa nesse sentido. Contrapondo, John argumentava que isso não poderia acontecer porque robôs não têm consciência.
Mesmo que eu já tivesse ouvido esse tipo de discussão antes, sempre havia pensado que robôs capazes de ter sentimentos fizessem parte do campo da ficção científica, mas agora, vindos de alguém que eu respeitava, estava ouvindo fortes argumentos de que eles faziam parte de um futuro próximo. Tive de reformular minha posição, especialmente por causa da habilidade de Ray em imaginar e criar o futuro. Eu já sabia que novas tecnologias como engenharia genética e nanotecnologia (1) estavam nos dando o poder de refazer o mundo, mas uma perspectiva realista e iminente de robôs inteligentes me surpreendeu.
É muito fácil ficar entediado com tais progressos. O noticiário fala quase todos os dias sobre algum tipo de avanço científico ou tecnológico, mas aquilo do que falávamos não era uma previsão comum, habitual. No bar do hotel, Ray me deu uma prévia do que seria o livro que estaria lançando em breve - A Era das Máquinas Espirituais (The Age of Spiritual Machines)- ao delinear a utopia que estava prevendo: humanos conseguiriam ser praticamente imortais ao se unirem à tecnologia robótica. Após lê-lo, meu desconforto apenas aumentou; passei a ter certeza que ele devia estar minimizando os perigos, minimizando a possibilidade de termos péssimos resultados ao longo desse caminho.
O que mais me inquietou foi uma passagem que detalhava um cenário apocalíptico:
“O novo desafio reacionário”.
Primeiro, vamos definir o postulado de que os cientistas tenham sucesso no desenvolvimento de máquinas inteligentes que possam fazer tudo melhor que os seres humanos. Nesse caso, presumidamente, todo o trabalho será feito por um vasto e altamente organizado sistema de máquinas, e nenhum esforço humano será necessário. Um dos dois casos poderá ocorrer: as máquinas passarão a tomar todas as suas decisões sem supervisão humana ou, ainda, o controle humano sobre as maquinas será mantido?
Se permitirmos às máquinas tomarem suas próprias decisões, não podemos fazer nenhuma conjectura sobre quais seriam os resultados disso, uma vez que é impossível advinhar como tais máquinas poderão se comportar. Nós apenas apontamos para o fato de que o destino da raça humana estaria à mercê das máquinas. Poderá ser argumentado que a raça humana nunca seria tola o suficiente para entregar todo o poder na mão das máquinas. Não estamos sugerindo nem que a raça humana daria voluntariamente o poder às máquinas, nem que as máquinas tomariam o poder deliberadamente. O que sugerimos é que a raça humana poderia facilmente se permitir ficar em uma posição tal de dependência das máquinas que não haveria nenhuma escolha prática além daquela de aceitar todas as decisões que elas tomasses. Como a sociedade e os problemas que ela enfrenta se tornam mais e mais complexos, e as máquinas se tornam mais e mais inteligentes, as pessoas deixarão as máquinas tomarem mais decisões em seu lugar simplesmente porque as decisões tomadas por máquinas trarão melhores resultados que as tomadas por seres humanos. Ao final, se chegará a um estágio em que as decisões necessárias para manter o sistema funcionando serão tão complexas que os seres humanos serão incapazes de tomá-las inteligentemente. Neste estágio, as máquinas terão o controle efetivo, e as pessoas não serão mais capazes de simplesmente desligá-las. Estarão tão dependentes delas que desligá-las teria a dimensão de um suicídio.
Por outro lado, é possível que o controle humano sobre as máquinas seja mantido. Neste caso, o homem comum terá controle sobre certas máquinas próprias, como seu carro ou seu computador, mas o controle sobre grandes sistemas de máquinas estará nas mãos de uma pequena elite – exatamente como é hoje, mas com duas diferenças. Devido ao desenvolvimento tecnológico, essa elite terá grande controle sobre as massas, e, porque o trabalho humano não se fará mais necessário, as massas serão supérfluas, um fardo inútil para o sistema. Se a elite for cruel, ela poderá simplesmente decidir exterminar essa massa. Se eles forem humanos, podem usar propaganda ou outra técnica psicológica ou biológica para reduzir a taxa de natalidade até que a massa se torne extinta, deixando o mundo para a elite. Ou, se a elite se constituir de liberais compadecidos, eles podem decidir fazer o papel de bons pastores do resto da raça humana. Eles garantirão que as necessidades de todos sejam satisfeitas, que todas as crianças sejam criadas em condições de higiene psicológica, que todos tenham um passatempo saudável para se ocupar e que qualquer um que se torne insatisfeito receba o "tratamento" adequado para sarar de seu "problema". Obviamente, a vida se tornará tão sem propósito que essas pessoas deverão passar por uma reengenharia genética e psicológica, tanto para remover sua necessidade de poder, quanto para fazê-las sublimar sua tendência ao poder com algum passatempo inofensivo. Esses seres humanos reformulados podem ser felizes neste tipo de sociedade, mas eles certamente não serão livres. Estarão reduzidos à condição de animais domésticos.”
No livro, você não descobre, até virar a página, que o autor dessa passagem é Theodore Kaczynski, o Unabomber. Não faço apologia a Kaczynski. Suas bombas mataram três pessoas em uma campanha de terror de dezessete anos, além de ferirem muitas outras. Uma de suas bombas feriu gravemente um amigo meu, David Gelernter, um dos mais brilhantes e visionários cientistas de computação do nosso tempo. (2) Como muitos de meus colegas, achava que poderia facilmente ser o próximo alvo do Unabomber.
As ações de Kaczynski foram assassinas e, em minha opinião, criminalmente insanas. Ele é claramente um reacionário, mas dizê-lo simplesmente não desqualifica seu argumento. Apesar do quanto difícil possa ser para mim admiti-lo, vi algum mérito nas ponderações desta única passagem e senti-me compelido a confrontá-las.
A visão apocalíptica de Kaczynski descreve conseqüências indesejadas, um problema bem conhecido no que se refere ao projeto e uso da tecnologia e que está claramente relacionado à Lei de Murphy: "Se alguma coisa pode dar errado, dará" (na verdade, essa é a lei de Finagle, que por si própria demonstra que Finagle estava certo). O uso exacerbado de antibióticos nos levou ao que pode ser o nosso maior problema deste tipo até agora: a emergência de bactérias resistentes e cada vez mais perigosas. Fato similar aconteceu quando as tentativas de eliminar mosquitos da malária usando-se DDT fez com que eles adquirissem resistência ao inseticida. Da mesma maneira, o parasita da malária adquiriu gens resistentes a uma série de drogas. (3)
A causa de tantas surpresas parece clara: os sistemas envolvidos são complexos, envolvem interação e mútua influência entre as partes. Qualquer mudança nesse tipo de sistema teria um efeito cascata difícil de prever. Isso é especialmente verdadeiro quando ações humanas estão envolvidas.
Comecei a mostrar a amigos o trecho de Kaczynski do livro a Era das Máquinas Espirituais; dava a eles o livro de Kurzweil, deixava que lessem o trecho e observava a reação que tinham ao descobrirem quem o havia escrito. Mais ou menos na mesma época, encontrei o livro de Hans Moravec, Robô: de Mera Máquina à Mente Transcendental (Robot: Mere Machine to Transcendent Mind). Moravec é um dos líderes da pesquisa robótica e o fundador de um dos maiores programas de pesquisa robótica do mundo, na Universidade de Carnegie Mellon. Robô me deu mais material para testar meus amigos – material que surpreendentemente embasava os argumentos de Kaczynski. Por exemplo:
"O Futuro Próximo (início dos anos 2000)
Espécies biológicas quase nunca sobrevivem a confrontos com adversários superiores. Há dez milhões de anos atrás, o istmo do Panamá que separa as Américas do Norte e do Sul estava submerso. A América do Sul, como a Austrália hoje, era habitada por mamíferos marsupiais, inclusive o equivalentes a ratos, veados e tigres com bolsa marsupial. Quando o istmo emergiu conectando as Américas, levou apenas alguns milhares de anos para que as espécies vivíparas do norte, cujo metabolismo e sistema reprodutivo e nervoso eram mais funcionais, tomassem o lugar de quase todos os marsupiais do sul, eliminando-os.
Em um mercado completamente livre, robôs superiores certamente afetariam humanos como os vivíparos da América do Norte afetaram os marsupiais da América do Sul (e como os humanos afetaram um número incontável de espécies). Indústrias da robótica competiriam vigorosamente entre si por matéria-prima, energia e espaço, acidentalmente elevando seus preços para além do alcance humano. Incapazes de arcar com suas necessidades vitais, humanos biológicos seriam empurrados para fora da existência.
Provavelmente há algum espaço para respirarmos aliviados porque não vivemos em um mercado completamente livre. O governo inibe comportamentos desleais de mercado, especialmente através do recolhimento de taxas. Sensatamente aplicada, a coerção governamental sustentaria populações humanas com os frutos do trabalho robotizado, em alto estilo e talvez por um longo tempo."
Um livro didático sobre o apocalipse – e Moravec está apenas ficando nervoso. Ele prossegue dizendo que nossa maior ocupação no século XXI será "assegurar a cooperação continuada das indústrias de robôs" por meio da aprovação de leis que decretem que elas devam ser "boas" e descrevendo o quanto seriamente perigoso um humano pode ser "uma vez transformado em um robô superinteligente e sem limites”.A visão de Moravec é a de que robôs acabarão nos sucedendo, que humanos estão claramente face à extinção.
Decidi que já era tempo de falar com meu amigo Danny Hillis. Danny ficou famoso como co-fundador da Thinking Machines Corporation (Corporação das Máquinas Inteligentes), que construiu um poderoso supercomputador paralelo. Apesar do meu cargo atual como Cientista-Chefe da Sun Microsystems, sou mais um arquiteto de computadores que um cientista e respeito o conhecimento de informática e física que Danny tem mais que o de qualquer outra pessoa que conheço. Danny é também altamente reconhecido como um futurista que pensa a longo termo – quatro anos atrás ele iniciou a Long Now Foundation (Fundação O Agora de Longa Duração), que está desenvolvendo um relógio projetado para durar dez mil anos, numa tentativa de chamar a atenção para o penalizante e curto alcance de percepção de nossa sociedade.
Assim, voei para Los Angeles para convidar Danny e sua esposa Pati para jantar. Iniciei minha rotina, hoje familiar, atropelando-os com as idéias e passagens que estavam me perturbando. A resposta de Danny – especificamente dirigida à perspectiva de Kurzweil de que humanos se mesclariam a robôs – veio rápida e pegou-me de surpresa. Ele disse simplesmente que as mudanças seriam graduais e que nós nos acostumaríamos a elas.
Penso que não fiquei totalmente surpreso. Já tinha lido uma citação de Danny no livro de Kurzweil na qual ele dizia: "Gosto tanto do meu corpo como qualquer um, mas, se eu puder viver duzentos anos com um corpo de silicone, eu o faria." Parecia que ele estava em paz com esse processo e com os riscos de seus participantes, ao passo que eu não estava.
Enquanto falava e pensava sobre Kurzweil, Kaczynski e Moravec, subitamente lembrei-me de uma novela que havia lido há aproximadamente vinte anos atrás – A Praga Branca (Editora Europa-América, The White Plague), de Frank Herbert - na qual um biólogo molecular enlouquece por causa do assassinato gratuito de sua família. Para se vingar, ele cria e dissemina uma praga nova e altamente contagiosa que mata a muitas pessoas, mas seletivamente (temos sorte de Kaczynski ser um matemático e não um biólogo molecular). Lembrei-me também dos Borgs de Jornada nas Estrelas, uma colônia de criaturas partes biológicas, parte robôs com uma forte tendência destrutiva. Se desastres como os Borgs são comuns na ficção científica, então como não me preocupei antes com tais pesadelos robóticos? Por que outras pessoas não estavam preocupadas com essas perspectivas apocalípticas?
Parte da resposta certamente está na nossa atitude em favor do novo, na nossa tendência à familiaridade instantânea e à aceitação que nada questiona. Acostumados a conviver com avanços científicos quase rotineiros, temos de enfrentar o fato de que as mais envolventes tecnologias do século XXI – robótica, engenharia genética e nanotecnologia – representam uma ameaça diferente daquela de tecnologias anteriores. Especificamente, robôs, organismos manipulados e nanobôs dividem entre si um fator intensificador de perigo: eles podem se auto-reproduzir. Uma bomba explode uma vez só, mas um bot (4) pode tornar-se muitos e rapidamente tomar o controle.
A maior parte do meu trabalho nos últimos vinte e cinco anos tem sido com redes de computadores, na qual o envio e o recebimento de mensagens criou oportunidades de reprodução fora de controle; mas, enquanto auto-reprodução em computadores ou em rede de computadores pode ser uma dor de cabeça, na pior das hipóteses, isso desabilita a máquina, desmantela a rede ou, mesmo, o servidor da rede. Auto-reprodução descontrolada nas tecnologias mais novas traz um risco muito maior: um risco de dano substancial ao mundo físico.
Cada uma dessas tecnologias também oferece promessas incontáveis: a visão de imortalidade próxima que Kurzweil tem em seu sonho robótico nos leva longe; engenharia genética pode, em breve, prover tratamentos, se não a cura completa, para a maior parte das doenças; nanotecnologia e nanomedicina podem tratar um número ainda maior de doenças. Juntos poderão aumentar significantemente nossa expectativa de vida e melhorar a qualidade de nossas vidas. Ainda, em cada uma dessas tecnologias, uma seqüência de avanços sensíveis, pequenos, individuais leva a uma acumulação grande de poder e, concomitantemente, a um grande perigo.
O que era diferente no século XX? Certamente a tecnologia por trás da armas de destruição em massa – nuclear, biológica e química (NBQ)– era poderosa, e as armas, uma enorme ameaça, mas a construção de armas nucleares exigia, pelo menos por um tempo, acesso tanto à matéria-prima rara – na verdade, efetivamente indisponível -, quanto a informações altamente protegidas; os programas de armas biológicas e químicas também exigiam atividades em larga escala.
Tecnologias do século XXI – genética, nanotecnologia e robótica (GNR) – são tão poderosas que podem trazer à tona toda uma nova classe de acidentes e abusos. Mais perigosos por serem inéditos, esses acidentes e abusos estão largamente dentro do alcance de indivíduos e pequenos grupos. Não requerem grande infraestrutura ou matérias-primas raras. O conhecimento sozinho habilita o seu uso.
Embora tenhamos uma perspectiva não apenas de armas de destruição em massa, mas de destruição em massa proporcionada pelo conhecimento, esta destrutividade é enormemente aumentada pelo poder da auto-reproduçao.
Penso que não é exagero dizer que estamos no início de um aperfeiçamento mais amplo da maldade extremista, uma maldade cujas possibilidades vão bem além daquelas das armas de destruição em massa sob o domínio dos estados-nações, partindo para um surpreendente e terrível aumento do poder de indivíduos extremistas.
Nada no modo como me envolvi com computadores me sugeriu que estaria enfrentando esse tipo de assuntos. Minha vida foi marcada por uma profunda necessidade de fazer perguntas e achar suas respostas. Já lia aos três anos, então meu pai me levou à escola elementar, onde me sentei no colo do diretor e li para ele uma história. Fui para a escola cedo, depois pulei um ano e mergulhei nos livros - era incrivelmente motivado para aprender. Fazia muitas perguntas que freqüentemente irritavam os adultos.
Quando adolescente, estava muito interessado em ciência e tecnologia. Queria ser um operador de rádio-amador, mas não tinha dinheiro para comprar o equipamento. Rádio-amadorismo era a internet da época: uma atividade muito viciante e praticamente solitária. Deixando a questão do dinheiro de lado, minha mãe foi firme – eu não seria um rádio-amador, já era anti-social o suficiente.
Eu poderia não ter muitos amigos íntimos, mas estava cheio de idéias. No 2o. grau, descobri os grandes autores de ficção científica. Lembro-me especialmente de O Viajante Espacial (Have Spacesuit Will Travel), de Heinlein, e Eu, Robô (I, Robot), de Asimov, com as suas Três Leis da Robótica (5). Estava encantado com as descrições de viagens espaciais e queria ter um telescópio para olhar as estrelas. Como não tinha dinheiro nem para comprar, nem para montar um telescópio, ao invés disso li sobre sua montagem; retirei da biblioteca todos os livros sobre montagem de telescópios. Na minha imaginação, tinha-me lançado ao espaço.
Nas noites de quinta-feira, meus pais saíam para jogar boliche, e nós crianças ficavam em casa sozinhas. Era também a noite da Jornada nas Estrelas original de Gene Roddenberry, programa que me marcou muito. Acabei aceitando sua noção de que humanos tinham um futuro no espaço, no estilo conquista do oeste, com grandes heróis e aventuras. A visão que Roddenberry tinha dos séculos vindouros tinha fortes valores morais, incrustados em códigos como a Primeira Directiva: não interferir no desenvolvimento de civilizações menos avançadas tecnologicamente. Isso tinha um apelo incrível para mim; pessoas com ética, não robôs, dominavam este futuro. Tomei o sonho de Roddenberry como parte do meu próprio sonho.
No 2o. grau, me superei em matemática e, quando fui para a Universidade de Michigan cursar engenharia, estudei pelo currículo de matemática avançada dos semestres mais adiantados. Resolver problemas de matemática era um desafio excitante, mas, quando descobri os computadores, achei-os muito mais interessantes: uma máquina que se poderia programar para resolver um problema, após o que a máquina rapidamente traria a solução. O computador tinha noção clara do correto e do incorreto, do certo e do falso. As minhas idéias estavam certas? A máquina poderia me dizer. Aquilo era muito sedutor.
Tive bastante sorte ao conseguir um trabalho como programador dos primeiros computadores e descobri o incrível poder das grandes máquinas em simular numericamente projetos avançados. Quando fui para a pós-graduação em Berkeley, Universidade da Califórnia, em meados dos anos setenta, comecei a ficar acordado até tarde, freqüentemente a noite toda, inventando novos mundos dentro das máquinas. Resolvendo problemas, escrevendo códigos que haviam amadurecido o suficiente para serem escritos.
Em Agonia e Êxtase, biografia romanceada de Michelangelo escrita por Irving Stone, o autor descreve vividamente como Michelangelo libertava as estátuas da pedra, "quebrando o encantamento do mármore", entalhando a partir das imagens que tinha em sua mente. (6). Em meus momentos de maior prazer, a programação do computador emergia da mesma maneira. Uma vez que a tinha na minha cabeça, sentia como se já estivesse lá na máquina, esperando para ser libertada. Ficar acordado a noite toda parecia um preço pequeno para libertá-la, para dar às idéias forma concreta.
Depois de alguns anos em Berkeley, comecei a distribuir alguns dos programas que havia desenvolvido – um sistema instrucional Pascal, utilitários Unix e um editor de texto chamado vi (que é ainda, para minha surpresa, amplamente usado mais de vinte anos depois) – entre outros usuários do pequeno PDP11 e minicomputadores VAX. Essas aventuras na programação finalmente se tornaram a versão do sistema operacional Unix adotado pela Berkeley e um desastre profissional pessoal – tanta pessoas o queriam que nunca consegui terminar meu mestrado. Em lugar disso, consegui um emprego trabalhando na Darpa para colocar o sistema Unix da Berkeley na internet, fazer os ajustes para deixá-lo confiável e capaz de executar bem grandes aplicativos de pesquisa. Isso tudo foi muito divertido e compensador. E, francamente, não via nenhum robô ali, e nem por perto.
Assim, no início da década de oitenta, eu estava abafando. Os lançamentos Unix tiveram grande sucesso, e meu pequeno projeto Unix logo teve dinheiro e colaboradores, mas o problema na Berkeley era sempre espaço para trabalhar e não dinheiro. Não havia espaço para a ajuda que o projeto precisava; então, quando os outros fundadores da Sun Microsystems apareceram, agarrei a chance de me juntar a eles. Na Sun, longas horas de trabalho se estenderam até o advento das primeiras estações de trabalho e computadores pessoais. Tive o prazer de participar da criação de avançadas tecnologias de microprocessadores e de internet, como Java e Jini.
Com tudo isso, acredito que tenha ficado claro que não sou um reacionário. Ao contrário, sempre tive uma forte crença no valor da pesquisa científica e na habilidade de grandes engenharias nos trazerem progresso material. A Revolução Industrial melhorou incomensuravelmente a vida de todos durante os últimos duzentos anos, e eu sempre esperei que minha carreira incluísse a elaboração de soluções válidas para problemas reais, um problema de cada vez.
Não me desapontei. Meu trabalho teve um impacto ainda maior que aquele que desejei e tem sido ainda mais útil que poderia esperar. Gastei os últimos vinte anos tentando descobrir como fazer os computadores serem tão confiáveis quanto quero que sejam (eles não estão nem perto disso ainda) e como torná-los simples de usar (um objetivo que tem encontrado menos sucesso ainda). Apesar de um certo progresso, os problemas que restam parecem ainda assustadores.
Embora estivesse consciente dos dilemas morais envolvendo as conseqüências da tecnologia em campos como pesquisa de armas, não esperava confrontar-me com tais questões no meu próprio campo, ou, pelo menos, não tão cedo.
Talvez seja ainda mais difícil ver um grande impacto quando se está no vórtex de uma mudança. Fracassar no entendimento das conseqüências de nossas invenções enquanto estamos no delírio da descoberta e da inovação parece ser uma falha comum aos cientistas e tecnólogos; temos sido impulsionados pelo supervalorizado desejo de saber, que é a natureza da busca científica, não parando para pensar que, com o progresso, tecnologias novas e mais poderosas podem criar vida por si próprias.
Há tempo já havia me dado conta de que os grandes avanços em informática vêm não do trabalho dos cientistas de computação, arquitetos de computadores ou engenheiros elétricos, mas dos físicos. Os físicos Stephen Wolfram e Brosl Hasslacher me apresentaram, no início dos anos oitenta, a teoria do caos e os sistemas não-lineares. Nos anos noventa, aprendi sobre esse complexo sistema em conversas com Danny Hillis, com o biólogo Stuart Kauffman, com o prêmio-nobel de física Murray Gell-Mann e outros. Mais recentemente, Hasslacher e o engenheiro elétrico e físico Mark Reed mostraram-me as incríveis possibilidades da eletrônica molecular.
No meu trabalho como co-projetista de três arquiteturas de microprocessadores – SPARC, picoJava e MAJC – e como projetista de muitas de suas implementações posteriores, fui brindado com um conhecimento profundo de primeira mão da Lei de Moore. Por décadas, a lei de Moore previu corretamente o índice exponencial de desenvolvimento da tecnologia de semicondutores. Até o ano passado, eu acreditava que esse índice de avanço previsto pela lei de Moore poderia valer, quanto muito, somente até 2010, quando alguns limites físicos seriam alcançados. Não era óbvio para mim que uma nova tecnologia chegaria a tempo de manter o desempenho avançando paulatinamente.
Mas, por causa do progresso recente, rápido e radical da eletrônica molecular – na qual átomos individuais e moléculas substituem os transístores impressos – e da nanotecnologia correspondente, deveremos alcançar ou exeder o índice de progresso da Lei de Moore por outros trinta anos. Até 2030, provavelmente, estaremos aptos a construir em quantidade máquinas um milhão de vezes mais poderosas que os computadores pessoais de hoje – o suficiente para implementar os sonhos de Kurzweill e Moravec.
Como este enorme poder da computação está combinado aos avanços da física e aos novos e mais aprofundados conhecimentos de genética, um enorme poder de transformação está sendo liberado. Essas combinações abrem a oportunidade de redesenhar completamente o mundo, para melhor ou para pior: os processos de evolução e reprodução que estavam confinados ao mundo natural estão prestes a se tornarem parte do campo das conquistas humanas.
Ao projetar programas e microprocessadores, nunca tinha tido a sensação de que estava projetando uma máquina inteligente. O software e o hardware são tão frágeis, e a capacidade da máquina de pensar tão claramente ausente que, mesmo como possibilidade, isso sempre me pareceu algo muito distante no futuro.
Mas agora, com a perspectiva de que o poder dos computadores chegue ao nível humano em aproximadamente trinta anos, surge uma nova idéia: a de que posso estar trabalhando para criar ferramentas que propiciarão a construção da tecnologia que poderá sobrepor nossa espécie. Como me sinto em relação a isso? Muito desconfortável. Após ter batalhado durante toda a minha carreira para construir sistemas de programação confiáveis, parece-me que é mais que provável que este futuro não funcione tão bem quanto as pessoas o imaginam. Minha experiência pessoal sugere que tendemos a superestimar nossas habilidades técnicas.
Devido o incrível poder dessas novas tecnologias, não deveríamos estar nos perguntando qual a melhor maneira de coexistir com elas? E, se nossa própria extinção é o provável, ou talvez possível, resultado de nosso desenvolvimento tecnológico, não deveríamos proceder com extremo cuidado?
O sonho da robótica é, primeiro, o de que máquinas inteligentes possam fazer nosso trabalho, deixando-nos livres para o lazer e restituindo-nos ao Éden. Ainda na sua história sobre essas idéias, Darwin Entre as Máquinas (Darwin Among The Machines), George Dyson nos alerta: "no jogo da vida e da evolução, há três jogadores à mesa: seres humanos, natureza e máquinas”.Como podemos ver, Moravec concorda, crendo que nós poderemos muito bem não sobreviver ao encontro com uma espécie superior de robôs.
Em quanto tempo poderemos construir um robô inteligente? Os próximos avanços em informática parecem torná-lo possível até 2030. E, a partir do momento em que um robô inteligente exista, estaremos a apenas um pequeno passo de uma espécie de robôs, de robôs inteligentes que podem fazer cópias desenvolvidas de si próprios.
Um segundo sonho da robótica é aquele em que gradualmente seremos substituídos pela nossa tecnologia robótica e atingiremos quase a imortalidade ao transferir nossa consciência; esse é o processo ao qual Danny Hillis acredita que gradualmente nos acostumaremos e que Ray Kurzweil elegantemente detalha em A Era das Máquinas Espirituais. Estamos começando a ficar íntimos disso com a implantação de dispositivos computadorizados no corpo humano.
Mas, se nós nos transferirmos para dentro de nossa tecnologia, quais são as chances de continuarmos sendo nós mesmos ou mesmo humanos? Parece-me muito mais provável que a existência robótica não será como a humana em nenhum dos sentidos que conhecemos, que robôs não serão de maneira alguma nossas crianças e que, nesse caminho, nossa humanidade possa muito bem ser perdida.
A engenharia genética promete revolucionar a agricultura aumentando os níveis de colheita enquanto reduz o uso de pesticidas, criar dezenas de milhares de novas espécies de bactérias, plantas, vírus e animais, substituir ou suplementar a reprodução com a clonagem, descobrir a cura para muitas doenças, aumentar nossa expectativa e nossa qualidade de vida e muito, muito mais. Agora sabemos com certeza que essas mudanças profundas na ciência biológica são iminentes e que desafiarão todos os nossos conceitos sobre o que é vida.
Tecnologias como a clonagem humana tem, em particular, despertado nossa atenção sobre as questões profundamente éticas e morais que enfrentamos. Se, por exemplo, nos transformarmos em várias e separadas espécies desiguais usando o poder da engenharia genética, então estaremos ameaçando a noção de igualdade que embasa nossa democracia.
Devido ao incrível poder da engenharia genética, não é surpresa que haja questões tão significantes sobre a segurança de seu uso. Meu amigo Amory Lovins há pouco escreveu conjuntamente com Hunter Lovins um editorial que dava uma visão ecológica sobre esses perigos. Entre suas considerações está a de que "a nova botânica alinha o desenvolvimento de plantas com seu sucesso econômico e não evolucionário". A longa carreira de Amory se concentrou em eficiência de recursos e energia por meio de uma visão integral dos sistemas feitos pelo homem; tal visão integral de sistemas sempre encontra soluções simples e inteligentes para o que, aparentemente, seriam problemas difíceis e é utilmente aplicável aqui também.
Depois de ler o editorial dos Lovins, li a opinião de Gregg Easterbrook no New York Times (19 de novembro de 1999) a respeito de colheitas geneticamente transformadas sob o título de "Alimentos para o Futuro: Algum dia o Arroz Terá Vitamina A Inserida. A Menos que os Reacionários Vençam”.
Serão Amory e Hunter Lovins reacionários? Certamente não. Acredito que nós todos concordaremos que o arroz de ouro, enriquecido com vitamina A, é provavelmente uma coisa boa, se desenvolvido com o devido cuidado e respeito pelos possíveis perigos de transferência de genes entre as espécies.
A consciência dos perigos inerentes à engenharia genética está começando a crescer, como refletido no editorial dos Lovins. O público em geral está atento, e com certa preocupação, para os alimentos geneticamente modificados e parece rejeitar a idéia de que tais alimentos terão permissão para não serem rotulados.
De qualquer forma, a engenharia genética já está muito além. Como os Lovins notaram, o Departamento de Agricultura dos Estados Unidos já aprovou cerca de cinqüenta colheitas modificadas geneticamente para liberação ilimitada; mais da metade do feijão-soja do mundo e de um terço de seu milho hoje contém genes inseridos a partir de outras formas de vida.
Mesmo que haja muitas questões importantes aqui, minha preocupação com engenharia genética é mais restrita: é a de que ela dá o poder – seja militarmente, acidentalmente ou a partir de um ato terrorista deliberado – de criar a Praga Branca.
As muitas maravilhas da nanotecnologia foram imaginadas primeiramente pelo prêmio Nobel de física Richard Feynman em uma palestra que deu em 1959 e subseqüentemente publicada sob o título Há Muito Espaço na Parte de Baixo (There’s Plenty of Room at the Bottom). Um livro que me causou muita impressão em meados dos anos oitenta foi os Mecanismos da Criação (Engines of Creation), de Eric Drexler, no qual ele descreve belamente como a manipulação da matéria em níveis atômicos poderia criar um futuro utópico de abundância, onde basicamente tudo poderia ser feito de maneira muito barata e praticamente qualquer doença imaginável ou problema físico poderia ser resolvido usando-se nanotecnologia e inteligência artificial.
Um livro subseqüente, Desatando o Futuro: a Revolução Nanotecnológica (Unbounding the Future: The Nanotechnology Revolution), em que Dexler colaborou, imagina algumas modificações que podem ter lugar em um mundo em que existam "montagens" de nível molecular. Essas montagens poderiam tornar possível a energia solar de baixíssimo custo, uma limpeza essencial e completa do meio ambiente, os supercomputadores de bolso incrivelmente baratos – enfim, qualquer produto poderia ser manufaturado por meio dessas montagens a um custo nunca superior ao da madeira -, vôos espaciais mais acessíveis que as viagens transoceânicas de hoje e o resgate de espécies extintas.
Lembro de me sentir bem a respeito da nanotecnologia depois de ler Mecanismos da Criação. Como tecnólogo, ele me deu uma sensação de calma, isto é, de que a nanotecnologia nos mostrava que um incrível progresso era possível e até inevitável. Se a nanotecnologia era nosso futuro, então não me sentia pressionado a resolver muitos dos problemas do presente. Chegaria ao futuro utópico de Drexler em uma questão de tempo e poderia, assim, aproveitar mais a vida aqui e agora. Não fazia sentido, devido a sua visão, ficar sempre acordado a noite toda.
A visão de Drexler me proporcionou também muito divertimento. Ocasionalmente eu descrevia as maravilhas da nanotecnologia a outras pessoas que não tinham ouvido nada a seu respeito. Depois de provocá-las com todas a coisas que Drexler descreveu, dava a elas um tema de casa: use a nanotecnologia para criar um vampiro; para créditos extras, crie um antídoto.
Com essas maravilhas, vinham perigos claros, acerca dos quais estava precisamente consciente. Como disse na conferência de nanotecnologia de 1989, "nós não podemos simplesmente fazer nossa ciência sem nos preocuparmos com suas questões éticas”.(7), mas minhas conversas subseqüentes com físicos convenceram-me de que a nanotecnologia talvez nem funcionasse, ou, pelo menos, não funcionaria tão cedo. Logo a seguir, mudei-me para o Colorado, para um trabalho nada prazeroso que havia começado, e o foco do meu trabalho passou da programação para a internet, especificamente sobre as idéias que se tornaram Java e Jini.
Então, no último verão, Brosl Hasslacher me disse que a eletrônica molecular em nanoescala já era uma prática. Essa era uma notícia nova - pelo menos para mim e, acredito, para muitas pessoas -, que mudou radicalmente minha opinião acerca da nanotecnologia e levou-me de volta a Mecanismos da Criação. Relendo o trabalho de Drexler mais de dez anos depois, surpreendi-me ao ver o pouco que lembrava do longo capítulo chamado Perigos e Esperanças, que incluía a discussão sobre como nanotecnologias podem tornar-se mecanismos de destruição. De fato, hoje, relendo este material sobre as precauções a tomar, fiquei chocado com o quanto as propostas de segurança de Drexler eram ingênuas e com o quanto hoje considero os perigos maiores do que lhe pareciam à época. Tendo antecipado e descrito muitos problemas técnicos e políticos sobre nanotecnologia, Drexler iniciou o Foresight Institute no final dos anos oitenta "para ajudar a sociedade a preparar-se para as tecnologias avançadas"- mais importante, a nanotecnologia.
O advento dessas montagens moleculares parece muito possível dentro dos próximos vinte anos. A eletrônica molecular – o novo subcampo da nanotecnologia em que moléculas individuais são elementos de circuitos – deve amadurecer rapidamente e tornar-se enormemente lucrativa ainda nesta década, causando um grande incremento nos investimentos em nanotecnologia.
Infelizmente, assim como a tecnologia nuclear, é mais fácil criar-se usos destrutivos que construtivos para a nanotecnologia. A nanotecnologia tem usos militares e terroristas bem claros, e você precisa ser suicida para lançar um dispositivo nanotecnológico massivamente destrutivo – tais dispositivos podem ser construídos para serem seletivamente destrutivos, afetando, por exemplo, somente uma certa área geográfica ou um grupo de pessoas geneticamente distinto.
Uma das conseqüências desse acordo Faustiano para a obtenção do grande poder da tecnologia é a de que corremos um grande risco – o risco de que nós poderemos destruir a biosfera da qual toda vida depende.
Como explica Drexler:
“Plantas com folhas cujas células solares sejam mais eficientes que as de hoje podem competir desigualmente com plantas reais, populando a biosfera com uma folhagem venenosa. Bactérias onívoras fortes podem competir desigualmente com bactérias reais: elas podem espalhar-se como pólem, reproduzir-se rapidamente e reduzir a biosfera a pó em questão de dias. Seres perigosos em alta reprodução podem facilmente tornar-se fortes, pequenos e de disseminação rápida demais para ser interrompida – pelo menos se não tomarmos precaução alguma. Já temos problemas bastantes controlando vírus e moscas de frutas”.
Entre os conhecedores da nanotecnologia, esta ameaça começa a ser conhecida como o "problema da goma cinza" (8). Apesar de massas de seres descontroladamente multiplicantes não precisarem ser cinza ou grudentas, o termo goma cinza enfatiza que esses seres capazes de aniquilar a vida podem ser menos inspiradores que uma única espécie de capim de horta. Eles podem ser superiores em um sentido evolucionário, mas isso não os faz necessariamente valiosos.
A ameaça da goma cinza deixa uma coisa perfeitamente clara: não podemos suportar certo tipo de acidentes com essas montagens moleculares multiplicantes."
A goma cinza certamente será um final deprimente para a aventura humana na Terra, muito pior que o fogo ou o gelo, e que pode surgir de um simples acidente de laboratório (9). Opa!
Acima de tudo é o poder destrutivo da auto-reprodução em genética, nanotecnologia e robótica que poderia nos dar uma pausa. A auto-reprodução é o modus operandi da engenharia genética, que usa os mecanismos da célula para reproduzir seus modelos, e o principal perigo por trás da goma cinza em nanotecnologia. Histórias de robôs violentos e descontrolados como os Borgs, que se tornaram replicantes ou mutantes para escapar das restrições éticas impostas a eles por seus criadores, estão bem estabelecidos em nossos livros e filmes de ficção científica. É possível que a auto-reprodução seja mais fundamental do que nós pensamos e, portanto, mais difícil – ou mesmo impossível - de controlar. Um artigo recente de Stuart Kauffman na Nature intitulado Auto-reprodução: até Peptídeos o Fazem, discute a descoberta de um peptídeo aminoácido32 que pode catalisar sua própria síntese. Não sabemos a quanto se estende essa habilidade, mas Kauffman nota que ela pode dar uma pista da "rota para os sistemas moleculares auto-reprodutores baseados em uma base de combinação mais extensa que a de Watson-Crick." (10)
Na verdade, temos tido em mãos, por vários anos, avisos claros dos perigos inerentes à expansão do conhecimento de genética, nanotecnologia e robótica – da possibilidade de que o conhecimento, por si só, leve à destruição em massa. Esses avisos já vêm sendo bastante publicados, mas a discussão pública tem sido claramente inadequada. Não há lucro em se divulgar os perigos.
As tecnologias nucleares, químicas e biológicas usadas nas armas do século XX para destruição em massa eram e são de uso largamente militar, desenvolvidas em laboratórios do governo. Em agudo contraste, estas mesmas tecnologias, no século XXI, terão uso claramente comercial e estarão sendo desenvolvidas exclusivamente por corporações empresariais. Nessa era de triunfante comercialismo, tecnologia – tanto quanto a ciência, sua companheira – está nos entregando uma série de invenções quase mágicas que são mais fenomenalmente lucrativas que as jamais vistas. Estamos agressivamente perseguindo as promessas dessas novas tecnologias dentro do sistema de capitalismo global inquestionado e de seus vários incentivos financeiros e pressões competitivas.
Este é o primeiro momento na história do nosso planeta em que uma espécie qualquer, por sua própria vontade, tornou-se um perigo para si mesma, assim como para um vasto número de outras espécies.
Até pode ser uma progressão familiar, que se refere a muitos mundos – um planeta recém formado placidamente se revolve em torno de sua estrela; a vida lentamente se forma; uma procissão caleidoscópicas de criaturas evolui, a inteligência emerge, o que, pelo menos até certo ponto, lhe confere um enorme valor de sobrevivência; e, assim, a tecnologia foi inventada. Percebe-se que existem coisas como as leis da Natureza, que essas leis podem ser reveladas por meio de experiências e que o conhecimento dessas leis pode ser desenvolvido tanto para salvar quanto para tirar vidas em escala sem precedentes. À ciência, reconhece-se, é permitido imenso poder. Rapidamente, pode-se criar "engenhocas" que alterem o mundo. Algumas civilizações planetárias vêem seu caminho através disso, colocam limites acerca do que pode e o que não deve ser feito e passam com segurança pelos momentos de perigo. Outras, não tão afortunadas ou prudentes, entram em colapso.
Isso é Carl Sagan escrevendo, em 1994, Pálido Ponto Azul (Ed. Cia. das Letras; Pale Blue Dot), um livro em que descreve sua visão acerca do futuro da espécie humana no espaço. Somente agora estou me dando conta do quanto suas intuições eram profundas e como dolorosamente sinto e sentirei falta de sua voz. Apesar de toda a sua eloqüência, a contribuição de Sagan não foi nada mais que bom senso – um atributo que, junto com humildade, muitos dos defensores das tecnologias do século XXI parecem não ter.
Lembro-me que, na minha infância, minha avó era radicalmente contra o uso exacerbado dos antibióticos. Ela havia trabalhado desde antes da Primeira Grande Guerra como enfermeira e tinha o bom senso de crer que, a menos que fosse absolutamente necessário, tomar antibióticos fazia mal para você.
Isso não significava que ela era inimiga do progresso. Ela acompanhou muitos progressos em sua carreira de quase setenta anos como enfermeira; meu avô, um diabético, beneficiou-se muito dos novos tratamentos que apareceram durante sua vida. Mas ela, como muitas pessoas sensatas, provavelmente pensaria que estamos sendo muito arrogantes agora, ao projetarmos espécies robóticas para nos substituírem, enquanto obviamente temos tantos problemas ao fazer com que coisas simples funcionem e tantos outros problemas administrando ou mesmo entendendo a nós próprios.
Me dou conta hoje que ela tinha uma consciência da natureza da ordem da vida e da necessidade de conviver com esta ordem e respeitá-la. Com esse respeito vem uma humildade necessária que nos falta em nosso atrevimento do início do século XXI. Uma visão sensata, baseada nesse respeito, está freqüentemente certa e à frente da evidência científica. A clara fragilidade e ineficiência dos sistemas criados pelo homem deveriam nos fazer parar; a fragilidade dos sistemas com que trabalhei certamente me humilham.
Deveríamos ter aprendido a lição do advento da primeira bomba atômica e da corrida armamentista que o seguiu. Não tivemos aí um bom desempenho, e uma comparação com a situação atual é problemática.
O esforço para se construir a primeira bomba atômica foi conduzido pelo brilhante físico Robert Oppenheimer. Oppenheimer não estava naturalmente interessado em política, mas ficou muito preocupado ao perceber a ameaça de o Terceiro Reich enterrar a civilização ocidental, uma ameaça certamente muito grave porque havia a possibilidade de Hitler obter armas nucleares. Impulsionado por essa preocupação, ele uniu seu forte intelecto, sua paixão pela física e sua liderança carismática para, em Los Alamos, liderar, em um esforço rápido e bem sucedido, um incrível grupo de grandes mentes que em seguida inventaram a bomba.
O que é surpreendente é que seu esforço continuou mesmo depois que o estímulo se fora. Em um encontro, logo após o dia 8 de março de 1945 (quando os alemães se renderam aos aliados), com alguns físicos que achavam que talvez as pesquisas deveriam parar, Oppenheimer argumentou que se devia continuar. A razão que deu parece um pouco estranha: não por causa do temor aos grandes danos que uma invasão pelo Japão poderia causar, mas porque as Nações Unidas, que logo seriam formadas, deveria ter um conhecimento adiantado sobre as armas atômicas. Um motivo mais provável para que o projeto continuasse é o ponto a que haviam chegado – o primeiro teste atômico, Trinity, estava quase à mão.
Sabemos que, ao prepararem o primeiro teste atômico, os cientistas prosseguiram apesar do grande número de perigos possíveis. Inicialmente estava preocupado, com base nos cálculos de Edward Teller, com a possibilidade de uma explosão atômica atear fogo na atmosfera. Um cálculo revisado reduziu o perigo de se destruir o mundo para três chances em um milhão. Teller afirma que, mais tarde, foi capaz de desfazer inteiramente a possibilidade de ignição atmosférica. Oppenheimer, entretanto, estava tão preocupado com os resultados de Trinity que havia preparado uma possível evacuação para o sudoeste do Estado do Novo México. E, é óbvio, havia o perigo claro de se iniciar uma corrida nuclear armamentista.
Em questão de um mês após o primeiro e bem sucedido teste, duas bombas atômicas destruíram Hiroshima e Nagasaki. Alguns cientistas sugeriram que a bomba deveria ser simplesmente demonstrada e não jogada sobre cidades japonesas, afirmando que isso poderia melhorar muito as chances de controle dos armamentos depois da guerra, mas não conseguiram nenhum aval. Com a tragédia de Pearl Harbor ainda fresca na memória dos americanos, teria sido muito difícil para o Presidente Truman ordenar que as armas fossem demonstradas ao invés de usá-las como fez – o desejo de acabar rapidamente com a guerra e de salvar as vidas que poderiam perder-se em caso de uma invasão japonesa era muito forte. A razão maior, entretanto, era provavelmente muito simples, como o físico Freeman Dyson disse mais tarde: "A razão pela qual foi jogada (a bomba) era que simplesmente ninguém teve a coragem ou a precaução de dizer não."
É importante dar-se conta do quanto os físicos ficaram chocados com os resultados do bombardeio de Hiroshima em 6 de agosto de 1945. Eles descrevem uma série de ondas de emoção: primeiro, um sentimento de gratificação por ter a bomba funcionado; depois o horror por todas as pessoas que foram mortas; e, ainda, a certeza de que, em nenhuma circunstância, outra bomba deveria ser lançada. Claro que, apesar disso, outra bomba foi lançada sobre Nagasaki apenas três dias após o bombardeio de Hiroshima.
Em novembro de 1945, três meses após os lançamentos das bombas atômicas, Oppenheimer colocou-se firme por trás de uma atitude científica dizendo: "Não é possível ser um cientista a menos que você acredite que o conhecimento do mundo e o poder que ele propicia é algo de valor intrínseco à humanidade, e que você o está usando para espalhar conhecimento, e que deseja assumir as conseqüências."
Oppenheimer voltou ao trabalho, juntamente com outros, no relatório Acheson-Lilienthal que, como Richard Rodhes diz em seu recente livro Visões da Tecnologia (Visions of Technology), "descobriu uma maneira de prevenir a corrida clandestina das armas nucleares sem o abrigo de um governo mundial armado"; a sugestão deles era uma forma de desistência das armas nucleares pelos estados-nações em favor de uma agência internacional.
Essa proposta levou ao Plano Baruch, que foi submetido às Nações Unidas em junho de 1946, mas que nunca foi adotado, talvez por causa, como sugere Rodhes, da "insistência de Bernard Baruch em queimar o plano com sanções convencionais", resultando em sua inevitável condenação, mesmo que fosse "quase certo que teria sido rejeitado pela Rússia stalinista de qualquer maneira”.Outros esforços para a promover atitudes sensatas em favor da internacionalização do poder nuclear que preveniria uma corrida armamentista sofreram a oposição tanto da política americana com suas desconfianças internas, como da desconfiança dos soviéticos. A oportunidade de se evitar uma corrida armamentista se perdeu rapidamente.
Dois anos depois, em 1948, Oppenheimer parecia ter atingido outro estágio em seu pensamento ao dizer: "De uma maneira cruel, que nenhuma vulgaridade, nenhum humor, nenhuma palavra pode extinguir, os físicos conheceram o pecado, e esse é um conhecimento que eles não podem perder”.
Em 1949, os soviéticos explodiram uma bomba atômica. Até 1955, tanto os Estados Unidos como a União Soviética tinham testado bombas de hidrogênio possíveis de serem jogadas de aviões. E assim a corrida armamentista começou.
Aproximadamente vinte anos depois, no documentário O Dia Seguinte a Trinity (The Day After Trinity), Freeman Dyson resumiu as atitudes científicas que nos trouxeram ao precipício nuclear: "Já senti por mim mesmo. O brilho das armas nucleares. É irresistível se você chega até ele como cientista. Sentir que está lá, em suas mãos, liberar a energia que alimenta as estrelas, deixar que faça sua vontade, executar tais milagres, levantar milhões de tochas até o céu. É algo que dá às pessoas a ilusão de poder ilimitado e é o responsável, em vários sentidos, por todos os nossos problemas – isso, o que você pode chamar de arrogância técnica, é o que envolve as pessoas quando elas vêem o que suas mentes podem fazer”.(11)
Agora, como então, somos os criadores de novas tecnologias e astros do futuro imaginado, impulsionado desta vez pelas grandes recompensas financeiras e pela competição global, apesar dos claros perigos, dificilmente avaliando como seria tentar viver em um mundo que seria o resultado real disso tudo que estamos criando e imaginando.
Em 1947, The Bulletin of the Atomic Scientists começou a colocar o relógio do juízo final em sua capa. Por mais de cinqüenta anos, ele mostrou uma estimativa do perigo relativo nuclear a que estivemos expostos. As mãos sobre os relógios mudaram quinze vezes e hoje, marcando nove minutos para a meia-noite, refletem a continuidade e a realidade do perigo das armas nucleares. A recente inclusão da Índia e do Paquistão na lista das potências nucleares aumentou a ameaça de fracasso dos objetivos de não-proliferação. Esse perigo se refletiu na mudança das mãos para mais perto da meia-noite em 1998.
Em nosso tempo, quantos perigos enfrentamos, não apenas os das armas nucleares, mas os de todas essas tecnologias? Os riscos de extinção são altos?
O filósofo John Leslie estudou a questão e concluiu que o risco de extinção dos humanos é de pelo menos trinta por cento (12), enquanto Ray Kurzweil acredita que nossas "chances de são melhores que nunca", apesar do fato de ele ter sido "sempre acusado de ser um otimista”.Essas estimativas não são apenas desencorajadoras, como também deixam de incluir a probabilidade de haver resultados terríveis que não estão longe de uma extinção.
Enfrentando tais argumentos, algumas pessoas já estão sugerindo que nós simplesmente nos movamos para longe da Terra o mais rápido possível. Colonizaríamos a galáxia usando os exploradores de Von Neumann, que pulam de um sistema solar para outro, se multiplicando conforme prosseguem. Esse passo só será necessário daqui a aproximadamente cinco bilhões de anos (ou antes, se nosso sistema solar se chocar desastrosamente com a galáxia de Andrômeda dentro dos próximos três bilhões de anos), mas, se levarmos Kurzweill e Moravec ao pé da letra, já será necessário na metade deste século.
Quais são as implicações morais aqui? Se nós deixarmos a Terra rapidamente para salvar nossa espécie, quem assumiria a responsabilidade pelo destino daqueles (maioria de nós, na verdade) que ficarem para trás? E se nós nos espalharmos pelas estrelas, não é provável que possamos levar nossos problemas conosco ou descobrir, mais tarde, que eles nos seguiram? O destino de nossa espécie na Terra e nosso destino na galáxia parecem estar inseparavelmente ligados.
Outra idéia seria erigir uma série de escudos de defesa contra tecnologias perigosas. A Iniciativa de Defesa Estratégica, proposta pela administração Reagan, foi uma tentativa de projetar tal escudo contra a ameaça de um ataque nuclear soviético. Mas, como Arthur Clarke, que fora informado das discussões acerca do projeto, observou: "Embora possa ser possível, a um alto custo, construir-se sistemas locais de defesa que possam barrar apenas uma pequena porcentagem dos mísseis balísticos, a idéia atravessada de um guarda-chuva nacional não faz sentido. Luis Alvarez, talvez o maior físico experimental deste século, me disse que os defensores de tais esquemas "eram caras muito brilhantes, mas sem nenhum bom-senso."
Clarke continua: "Olhando na minha freqüentemente enuviada bola de cristal, suspeito que a defesa total possa ser possível em um século ou pouco mais que isso, mas a tecnologia envolvida produziria, como um efeito colateral, armas tão terríveis que ninguém se preocuparia com algo tão primitivo quanto mísseis balísticos”.(13)
Em Mecanismos da Criação, Eric Drexler propôs que se construa um escudo nanotecnológico ativo – uma forma de sistema imunológico da biosfera – que nos defenda de multiplicantes perigosos de todos os tipos que possam ter escapado dos laboratórios ou ainda que tenham sido criados intencionalmente. Mas o escudo que ele propôs seria por si só extremamente perigoso – nada poderia evitar que desenvolvesse problemas de imunidade e atacasse a própria biosfera. (14)
Dificuldades semelhantes se aplicam ao caso da construção de escudos contra engenharia genética e robótica. Essas tecnologias são muito poderosas para que se encontrem defesas em tempo hábil; mesmo que fosse possível implementar escudos defensivos, os efeitos colaterais de seu desenvolvimento seriam, no mínimo, tão perigoso quanto as tecnologias de que estamos tentando nos defender.
Essas possibilidades ou são indesejáveis, ou são inatingíveis, ou mesmo ambas as coisas. A única alternativa realista que vejo é a desistência: limitar o desenvolvimento de tecnologias que são muito perigosas por meio da limitação do acesso a certos tipos de conhecimento.
Sim, eu sei, conhecimento é bom, assim como a pesquisa de novas verdades. Temos buscado o conhecimento desde tempos antigos. Aristóteles abre sua Metafísica com uma simples frase: "Todos os homens, por natureza, desejam saber”.Há muito tempo, concordamos, como um dos princípios da nossa sociedade, acerca do valor do livre acesso à informação e reconhecemos os problemas que surgem com as tentativas de restringir esse acesso, bem como o seu desenvolvimento. Em tempos recentes, temos venerado o conhecimento científico.
Mas apesar dos fortes precedentes históricos, se o amplo e ilimitado acesso ao conhecimento a partir de agora coloca a todos nós em claro perigo de extinção, então o bom-senso manda que se reexamine até mesmo essas crenças básicas mantidas há tanto tempo.
Foi Nietszche que nos preveniu, no final do século XIX, de que não apenas Deus está morto, mas também que "a fé na ciência, apesar de tudo, existe inegavelmente e ela não pode dever sua origem a cálculos de utilidade; ela deve se originar apesar do fato de que a inutilidade e o perigo do ‘desejo da verdade’, ou ‘verdade a qualquer preço’, sejam provados constantemente”.É esse o perigo que agora enfrentamos – as conseqüências da nossa perseguição da verdade. A verdade que a ciência persegue e que pode certamente ser considerada um perigoso substituto para Deus está a nos levar à destruição.
Se pudéssemos concordar, como espécie, que desejamos, para onde quer que e para o quê nos voltemos, então poderíamos fazer nosso futuro muito menos perigoso – então poderíamos entender o que podemos e de que devemos desistir. Se não, é facil imaginar uma corrida armamentista se desenrolando a partir das tecnologias genética, nanotécnica e robótica, assim como ocorreu com as tecnologias nucleares, biológicas e químicas do século XX. O maior risco é, uma vez que essa corrida comece, não conseguirmos pará-la. Desta vez – diferente de quando o Projeto Manhattam ocorreu – não estamos em guerra, em face de um implacável inimigo que está ameaçando nossa civilização. Estamos sendo dirigidos, ao contrário, por nossos hábitos, nossos desejos, nosso sistema econômico e nossa necessidade competitiva de saber.
Acredito que nós todos desejamos que nosso caminho seja determinado pelos nossos valores coletivos, éticos e morais. Se ganharmos mais sabedoria coletiva durante os últimos milhares de anos, então o diálogo acerca desse final poderia ser mais prático, e os incríveis poderes que estamos para liberar não seriam tão problemáticos.
Alguém poderia pensar que seremos levados a tal diálogo pelo nosso instinto de autopreservação. Indivíduos têm claramente esse desejo, mesmo que, enquanto espécie, nosso comportamento não parece estar a nosso favor. Lidando com a ameaça nuclear, freqüentemente falamos desonestamente conosco mesmos e com os outros, assim aumentando grandemente os riscos. Se isso era politicamente motivado, ou era porque escolhemos não pensar a respeito, ou porque, ao enfrentarmos ameaças tão graves, reagimos irracionalmente por causa do pavor, não sei, mas isso não funcionou bem.
A nova caixa de Pandora da genética, nanotecnologia e robótica, está quase aberta, embora nem parece que o tenhamos notado. Idéias não podem ser colocadas de volta em uma caixa, diferente do plutônio ou do urânio, elas não precisam ser mineradas ou refinadas e elas podem ser livremente copiadas. Uma vez que estão fora, estão fora. Churchill disse, quando daquele famoso cumprimento com a mão esquerda levantada, que os americanos e seus líderes "invariavelmente fazem a coisa certa depois de terem examinado todas as outras alternativas”.Nesse caso, entretanto, devemos agir com mais precisão ainda, uma vez que fazer a coisa certa somente ao final pode ser perder a chance de fazê-lo.
Como disse Thoreau: "Nós não andamos em uma estrada de ferro; ela anda por nós”.E é contra isso que devemos lutar em nosso tempo. A questão é, de fato, quem é que manda? Sobreviveremos às nossas tecnologias?
Estamos sendo impulsionados para dentro desse novo século sem planos, sem controle, sem freios. Já fomos longe demais para poder alterar nosso curso? Não acredito nisso, mas não estamos tentando alterá-lo ainda, e a última chance de tomar o controle – o ponto crítico – está se aproximando rapidamente. Já temos nossos primeiros robôs de estimação, tanto quanto técnicas de engenharia genética disponíveis comercialmente, e a tecnologia em nanoescala está avançando rapidamente. Enquanto o desenvolvimento dessas tecnologias prossegue em um determinado número de passos, não é necessariamente o caso – como aconteceu no Projeto Manhattam ou no teste Trinity - de que o último teste dessa tecnologia seja grande e difícil. O aparecimento de auto-multiplicantes selvagens em robótica, engenharia genética e nanotecnologia poderá ocorrer subitamente, reprisando nossa surpresa quando soubemos da clonagem de mamíferos.
Ainda assim acredito que temos uma base sólida e forte de esperança. Nosso esforço em lidar com armas de destruição em massa no último século nos deu um exemplo brilhante de desistência a ser considerado: o abandono unilateral por parte dos Estados Unidos, sem precondições, do desenvolvimento de armas biológicas. Essa desistência partiu da percepção de que, enquanto fizéssemos enormes esforços para criar essas armas terríveis, elas poderiam ser facilmente duplicadas e cair em mãos de nações mal-intencionadas e grupos terroristas.
As conclusões claras são as de que poderemos criar ameaças adicionais para nós mesmos ao buscarmos tais armas, e que estaríamos mais seguros se não as buscássemos. Consolidamos o a desistência às armas químicas e biológicas em 1972, na Convenção de Armas Biológicas, e em 1993, na Convenção de Armas Químicas. (15)
A respeito da ainda grande ameaça das armas nucleares, com a qual temos convivido por mais de cinqüenta anos, a recente rejeição do Senado americano do Tratado Compreensivo de Banimento de Testes deixa claro que a renúncia às armas nucleares não será politicamente fácil, mas temos uma oportunidade única, com o final da guerra fria, de prevenir uma corrida armamentista multipolar. Baseado na renúncia das Convenções de Armas Químicas e Biológicas, uma abolição bem sucedida das armas nucleares poderia nos ajudar na construção de um hábito de renúncia às tecnologias perigosas. Na verdade, ao nos livrarmos de aproximadamente cem armas nucleares espalhadas pelo mundo todo – mais ou menos o poder destrutivo total da Segunda guerra mundial, um trabalho relativamente fácil – poderíamos eliminar essa ameaça de extinção. (16)
Efetivar essas renúncias será um problema difícil, mas não insolúvel. Temos sorte de já haver feito muito desse trabalho relevante no contexto das armas biológicas e outra ameaças. Nosso desafio maior será aplicar esta tecnologia que é naturalmente muito mais comercial que militar. A necessidade substancial aqui é a transparência, a dificuldade de verificação é diretamente proporcional à dificuldade de distinguir a renúncia de atividades legítimas.
Eu francamente acredito que a situação em 1945 era mais simples que a que enfrentamos hoje: as tecnologias nucleares eram razoavelmente separáveis de acordo com seu uso comercial ou militar, o monitoramento era ajudado pela natureza dos testes atômicos e pela facilidade com que a radioatividade podia ser medida. Pesquisas de aplicação militar poderiam ser realizadas em laboratórios nacionais, como em Los Alamos, com os resultados mantidos em segredo por todo o tempo possível.
As tecnologias da genética, nanotécnica e robótica não se dividem claramente entre uso comercial e militar. Com seu amplo apelo comercial, monitorar sua renúncia requerirá um regime de verificação parecido ao das armas biológicas, mas em uma escala sem precedentes. Isso, inevitavelmente originará tensões entre a nossa privacidade individual, o desejo à propriedade da informação e a necessidade de verificação para nos protegermos. Sem dúvida encontraremos fortes resistências a essa perda de privacidade e de liberdade de ação.
A verificação dessas tecnologias ocorrerá tanto no ciberespaço quanto em instalações físicas. A questão crítica será fazer com que a necessária transparência seja aceitável em um mundo de propriedade de informação, presumivelmente ao se criarem novas formas de proteção à propriedade intelectual.
A verificação do cumprimento do acordo também requererá que cientistas e engenheiros adotem um forte código ético de conduta, parecido com o Juramento de Hipócrates, e que tenham coragem de denunciar se necessário, mesmo a um alto custo pessoal. Isso responderia à chamada – cinqüenta anos depois de Hiroshima – do prêmio Nobel Hans Bethe, um dos mais velhos membros vivos do Projeto Maniatam, para que os cientistas "cessem o trabalho, e dele desistam, de criaçã, desenvolvimento, melhoria e fabrico de armas nucleares e outras armas de potencial de destruição em massa." (17) No século XXI, isso requer vigilância e responsabilidade pessoal por parte daqueles que trabalham tanto com tecnologias nucleares, biológicas e químicas quanto com genética, nanotecnologia e robótica, para evitar a implementação de armas de destruição em massa e da própria destruição em massa causada pela informação.
Thoreau também disse que nós seremos "ricos em proporção ao número de coisas que poderemos deixar de lado." Todos queremos ser felizes, mas me parece válido perguntar se temos necessidade de corrermos tal risco de destruição total para obter ainda mais conhecimento e ainda mais coisas; o bom senso diz que existe um limite para nossas necessidades materiais, e que um certo tipo de conhecimento é muito perigoso, e que seria melhor deixá-lo de lado.
Nós também não podemos obter uma quase imortalidade sem considerar os custos, sem considerar o aumento comensurável do risco de extinção. Imortalidade, enquanto essa que conhecemos, não é certamente o único sonho utópico possível.
Recentemente tive a sorte de encontrar o distinto autor e professor Jacques Attali, cujo livro Linhas do Horizonte (Lignes d’horizons, ed Millenium para a tradução em inglês) ajudou a inspirar a aproximação das linguagens java e Jini à próxima era de computação onipresente. Em seu livro Fraternidades (Fraternités), Attali descreve como nossos sonhos utópicos mudaram com o tempo:
"No crepúsculo das sociedades, homens viram sua passagem pela Terra como nada mais que um labirinto de dor, no final do qual se encontra uma porta que leva, por meio da morte, à companhia dos deuses e à eternidade. Com os hebreus e com os gregos, alguns homens atreveram-se a libertar-se da demanda teológica e sonharam com uma cidade ideal onde a liberdade floresceria. Outros, que perceberam a evolução da sociedade de mercado, entenderam que a liberdade de alguns moldaria a alienação de outros, e eles procuraram a Igualdade."
Jacques me ajudou a entender como esses três objetivos utópicos diferentes existem em tensão na nossa sociedade. Ele prossegue descrevendo uma quarta utopia, a Fraternidade, cujo fundamento é o altruísmo. A Fraternidade sozinha associa a felicidade individual com a felicidade dos outros, embasando a promessa de auto-sustento.
Isso cristalizou meu problema com o sonho de Kurzweil. Uma abordagem tecnológica da Eternidade – quase imortalidade por meio da robótica – pode não ser a mais desejável das utopias, e persegui-la traz claros perigos. Talvez devêssemos repensar nossas escolhas utópicas.
Onde podemos procurar uma nova base ética para orientar nosso curso? Penso que as idéias do livro Ética para o Novo Milênio (Ethics for the New Millenium), do Dalai Lama, são muito úteis. Sendo talvez bem conhecido, mas pouco compreendido, o Dalai Lama argumenta que a coisa mais importante para nós é conduzir nossas vidas com amor e compaixão pelos outros e que a nossa sociedade necessita desenvolver uma forte noção de responsabilidade universal e de interdependência; ele propõe um modelo de conduta ética positiva para indivíduos e sociedades que parece consoante à utopia da Fraternidade de Attali.
O Dalai Lama mais adiante argumenta que devemos entender o que faz as pessoas felizes e agradecer à forte evidência de que nem o progresso material, nem a busca do poder do conhecimento é a chave – que há limites que a ciência e a busca científica sozinhas podem se dar.
Nosso conceito ocidental de felicidade parece vir dos gregos, que o definiram como "o exercício dos poderes vitais em determinados níveis de excelência ao longo de uma vida que lhes proporcione espaço suficiente”.(18)
Claramente devemos achar desafios significativos e espaço suficiente em nossas vidas se quisermos ser felizes, seja lá o que isso signifique, mas eu acredito que devemos encontrar outras alternativas para nossas forças criativas, além da cultura do perpétuo crescimento econômico; esse crescimento tem sido grandemente abençoado por muitas centenas de anos, mas não nos trouxe felicidade pura, e precisamos agora escolher entre a busca do crescimento irrestrito e indireto por meio da ciência e tecnologia e seus claros perigos paralelos.
Já faz mais de um ano desde meu primeiro encontro com Ray Kurzweil e John Searle. Vejo perto de mim motivos de esperança nas vozes de acautelamento e renúncia e naquelas pessoas que descobri tão preocupadas quanto eu acerca de nosso atual dilema. Sinto, também, um profundo senso de responsabilidade pessoal – não pelo trabalho que já fiz, mas pelo que ainda farei no conjunto das ciências.
Mas muitas das pessoas que sabem sobre os perigos ainda estão estranhamente em silêncio. Quando pressionadas, elas largam a resposta "isso não é novo" – como se saber o que poderia acontecer fosse resposta suficiente. Me disseram que há universidades cheias de biotecnólogos que estudam essa coisa o dia todo. Me disseram que tudo isso já foi escrito antes por especialistas. Reclamaram que nossas preocupações e argumentações já estavam ultrapassados.
Não sei onde essas pessoas escondem seus medos. Como arquiteto de sistemas complexos, entrei nessa arena como um generalista, mas isso é suficiente para diminuir minhas preocupações. Estou consciente sobre o quanto já se escreveu a respeito, se falou a respeito e se discutiu em palestras tão autoritariamente a esse respeito, mas isso significa que as pessoas foram sensibilizadas? Isso significa que poderemos descontar os perigos perante nós? Sei que isso não é motivo para não agir. Podemos duvidar que o conhecimento é uma arma que apontamos contra nós mesmos?
A experiência dos cientistas atômicos claramente demonstra a necessidade de assumir-se responsabilidades pessoais, o perigo de as coisas andarem muito rápido e a maneira pela qual o progresso pode assumir vida própria. Podemos, como eles fizeram, criar uma série de problemas em curto espaço de tempo. Deveremos pensar mais a respeito se não quisermos ficar igulamene surpresos e chocados com as conseqüências de nossas invenções.
A continuidade do meu trabalho profissional está na melhoria de desempenho de softwares como ferramentas. Enquanto construtor de ferramentas, devo lugar contra os usos feito das ferramentas que criei. Sempre acreditei que tornar softwares mais confiáveis, devido aos seus muitos usos, faria do mundo um lugar melhor e mais seguro; se eu acreditasse no contrário, então estaria moralmente obrigado a parar esse trabalho. Agora posso imaginar que esse dia talvez chegue.
Isso tudo não me deixa brabo, mas, pelo menos, um pouco melancólico. Talvez para mim, o progresso sempre vá ser algo agridoce.
Você se lembra da bela cena de Manhattann, quando Woody Allen está deitado em sua cama gravando um ditado em uma fita cassete? Ele está escrevendo um conto sobre pessoas que criam problemas neuróticos desnecessários para si próprias porque isso evita que tenham de lidar com problemas mais terríveis e insolúveis sobre o universo.
Ele chega à questão: "A vida vale a pena ser vivida?"e considera o que a faz valer a pena para ele. Groucho Marx, Willie Mays, o segundo movimento da Sinfonia de Júpiter, a gravação de Louis Armstrong para Potato Head Blues, filmes suecos, a Educação Sentimental de Flaubert, Marlon Brando, Frank Sinatra, as maçãs e pêras de Cèzanne, os caranguejos do Sam Wo e, finalmente, o grande final, o rosto de sua amada Tracy.
Cada um de nós tem suas coisas preciosas e, conforme cuidamos delas, encontramos a essência de nossa humanidade. No final, é por causa de nossa grande capacidade de carinho que eu continuo otimista de que confrontaremos as questões agora à nossa frente.
Minha esperança imediata é a de participar de uma discussão muito maior sobre as questões aqui levantadas, com pessoas de diferentes formações, em situações que não estejam predispostas ao pavor ou à tecnologia por si só.
Como um começo, por duas vezes, levantei essas questões em eventos patrocinados pelo Aspen Institute e propus à Academia Americana de Artes e Ciências que os considerasse uma extensão de seu trabalho com a Conferência Pugwash, que vêm sendo levadas a termo desde 1957 para discutir-se o controle de armas, especialmente armas nucleares, e formular-lhes políticas viáveis.
É uma pena que os encontros Pugwash tenham começado somente após o gênio nuclear ter escapado da garrafa – mais ou menos com quinze anos de atraso. Nós também estamos nos demorando a enfrentar as questões relativas às tecnologias do século XXI – a prevenção da destruição em massa ocasionada pelo conhecimento – e mais delongas parecem inaceitáveis.
Assim, ainda estou pesquisando, há tantas outras coisas para aprender. Se vamos ter sucesso ou se vamos fracassar, se vamos sobreviver ou se vamos cair vítima dessas tecnologias, ainda não está decidido. Já fiquei acordado até tarde de novo – já são seis da manhã. Estou tentando achar respostas melhores, quebrar o encanto e libertá-las da pedra.


1 Nota da Tradução: Tecnologia de nível molecular que trabalha com elementos atômicos, reordenando-os para formar montagens de tamanho muito inferior ao mícron. Por exemplo: nanorrobôs capazes de penetar o corpo humano e combater agentes infecciosos ou reparar artérias entupidas.

2 A passagem que Kurzweill cita é do Manifesto Unabomber de Kaczynski, publicado concomitantemente no The New York Times e The Washington Post em uma tentativa de trazer um fim a sua campanha de terror. Concordo com David Gelernter, que disse acerca desta decisão: "Foi uma chamada dura para os jornais. Dizer sim seria render-se ao terrorismo, e, até onde eles sabiam, ele estava mentindo de qualquer maneira. Por outro lado, dizer sim poderia parar os assassinatos. Havia ainda a chance de que alguém que lesse o trecho tivesse alguma pista sobre o autor, e foi exatamente o que aconteceu. O irmão do suspeito leu o manifesto e deu um telefonema. Eu teria dito para não publicar. Estou feliz que não tenham me consultado.
Eu acho." (Drawing Life: Surviving the Unabomber. Free Press, 1997: 120.)
3 Garrett, Laurie. The Coming Plague: Newly Emerging Diseases in a World Out of Balance Penguin, 1994: 47-52, 414, 419, 452 (A Próxima Peste, Ed. Nova Fronteira)
4 Nota da Tradução: Embora não se refira propriamente a um robô e, sim, a programas capazes de executar funções por si próprios, a palavra bot é um diminutivo de robot. Acredita-se que a primeira forma de inteligência artificial que apareceu foi o Eliza, um programa de computador que pode entabular uma conversação quase independente com seres humanos. O Eliza faz perguntas ao usuário e utiliza elementos de suas respostas para formular outras perguntas indefinidamente. O uso mais freqüente desse tipo de inteligência artificial como programa capaz de processar informações por si próprio, sem a necessidade de direção humana, é justamente nos mecanismos de pesquisa e busca da internet. Eventualmente o termo bot é substituído por agente, já que o programa é enviado em uma missão de investigação e deve retornar com as informações desejadas.
5 Isaac Asimov descreveu o que se tornou a mais famosa visão das regras de ética comportamental dos robôs em seu livro Eu, Robô, de 1950. As suas Três Leis da Robótica:
1. Um robô não deve machucar um ser humano ou, por meio da inação, permitir que um ser humano se machuque.
2. Um robô deve obedecer às ordens dada pelos seres humanos, exceto quando essas ordens entrem em conflito com a Primeira Lei.
3. Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira e a Segunda Lei.
6 Michelangelo escreveu um soneto que começa assim:
Non ha l' ottimo artista alcun concetto
Ch' un marmo solo in sè non circonscriva
Col suo soverchio; e solo a quello arriva
La man che ubbidisce all' intelleto.
(Não há, para um bom artista, conceito qualquer
Que um mármore, em si só, não circunscreva
Com o seu excesso; e a ele somente chega
A mão que obedece ao intelecto.)
Stone descreve o processo: "Ele não estava trabalhando a partir de seus esboços ou modelos de argila; ele tinha jogado fora todos. Entalhava a partir de imagens de sua mente. Seus olhos e suas mãos sabiam onde e de que profundidade no coração da pedra cada linha, curva, volume deveria emergir para criar um baixo relevo." (Agonia e Êxtase, Ed. Itatiaia / The Agony and the Ecstasy. Doubleday, 1961: 6, 144.)
7 A primeira Foresight Conference on Nanotechnology (Conferência sobre Perspectivas em Nanotecnologia) deu-se em outubro de 1989, e a palestra entitulada "The Future of Computation (O Futuro da Computação)" foi publicada por Crandall, B. C. and James Lewis. Nanotechnology: Research and Perspectives. MIT Press, 1992: 269. Veja também www.foresight.org/Conferences /MNT01/Nano1.html.
8 Nota da Tradução: No original, gray goo. Trata-se de uma hipotética substância composta de nanorrobôs programados para fazerem cópias de si mesmos ou de qualquer coisa que encontrarem. O termo refere-se à idéia de que toda a biosfera pode se tornar uma massa-robô, o que vem sendo refutado pelo argumento de que não há energia nem matéria abundante o suficiente para que isso aconteça.
9 Em seu livro de 1963, Cama-De-Gato (Editora Submarino; Cat's Cradle), Kurt Vonnegut imagina um acidente nos moldes do acidente da goma cinza: um tipo de gelo chamado gelo-nove, que torna-se sólido em temperaturas muito mais altas, congela o oceano.
10 Kauffman, Stuart. "Self-replication: Even Peptides Do It" Revista Nature 382, de 8 de agosto de 1996, página 496. Veja também www.santafe.edu/sfi/People/kauffman/sak-peptides.html.
11 Else, Jon. The Day After Trinity: J. Robert Oppenheimer and The Atomic Bomb (O Dia Seguinte a Trinity: J Robert Oppenheimer e a Bomba Atômica), disponível em www.pyramiddirect.com.
12 Essa estimativa está no livro de Leslie The End of the World: The Science and Ethics of Human Extinction (O Fim do Mundo: A Ciência e a Ética da Extinção Humana), onde ele nota que a probalidade de extinção é substancialmente maior que a aceita pelo Argumento Juízo Final de Brandon Carter, que é, em resumo, o de que "temos de Ter uma certa relutânia em avreditar que estamos excepcionalmente adiantados, por exemplo entre os primeiros 0,001 por cento dentre todos os humanos que já viveram. Isso seria uma razão para crer-se que a espécie humana não sobreviverá por muito mais séculos, que dirá colonizar a galáxia. O Argumento Juízo Final de Carter não gera nenhuma estimativa de risco por si só, mas é um argumento para a revisão de estimativas que geramos ao considerar vários perigos possíveis." (Routledge, 1996, páginas 1, 3 e 145)
13 Clarke, Arthur C. "Presidents, Experts, and Asteroids (Presidentes, Especialistas e Asteróides)" Science, 5 de junho de 1998. Reeditado como "Science and Society" in Greetings, Carbon-Based Bipeds! Collected Essays 1934-1998 (Saudações, Bípedes de Base Carbonada - Coletânea de Ensaios de 1934 a 1998), St. Martin's Press, 1999: 526.
14 E, como David Forrest sugere em sua tese Regulando o Desenvolvimento da Nanotecnologia, (disponível em www.foresight.org/NanoRev/Forrest1989.html, Regulating Nanotecnology Development), "Se usarmos estritamente a responsabilidade legal como alternativa de regulamentação, poderá ser impossível para qualquer um que trabalhe no desenvolvimento dessas tecnologias internalizar os riscos (de destruição da biosfera); então, teoricamente, a atividade de desenvolvimento da nanotecnologia nunca deve ser desconsiderada."A análise de Forrest nos deixa somente com a proteção governamental– uma idéia nada confortável.
15 Meselson, Matthew. "The Problem of Biological Weapons (O Problema das Armas Biológicas)" Apresentação 1.818o Encontro da Academia Americana de Artes e Ciências, em 13 de janeiro de 1999. minerva.amacad.org/archive/bulletin4.htm
16 Doty, Paul. "The Forgotten Menace: Nuclear Weapons Stockpiles Still Represent the Biggest Threat to Civilization (A Ameaça Esquecida: Estoques de Armas Nucleares Ainda Representam a Maior Ameaça à Civilização)" Revista Nature 402, 9 de dezembro de 1999, página 583.
17 Ver também a carta de 1997 de Hans Bethe para o Presidente Clinton em www.fas.org/bethecr.htm.
18 Hamilton, Edith. The Greek Way. W. W. Norton & Co., 1942, página 35.
Copyright2000
Wired Magazine Group Inc.

Bill Joy é co-fundador e cientista-chefe da Sun Microsystems, foi mediador na comissão presidencial para o futuro da pesquisa em informática e co-autor de Especificação da Linguagem Java (The Java Language Specification, Longman do Brasil). Esta é uma versão editada de seu ensaio para a revista norte-americana Wired. O texto integral foi copiado do site da revista
AMANHÃ: www.amanha.com.br