segunda-feira, 17 de fevereiro de 2025

A singularidade tecnológica que se aproxima: como viver em uma era pós-humana (TRADUÇÃO)

Esta divulgação de tradução é resultado da pesquisa em desenvolvimento ao lado da minha pesquisa de mestrado em filosofia intitulado: "A controversa interpretação sobre o conceito de Übermensch na filosofia transhumanista" na universidade Federal do Paraná.

Vernor Vinge (1944-2024), professor de ciência da computação e de matemática na Universidade Estadual de San Diego. Escritor de ficção científica.

Esta tradução é uma transcrição proferida em um simpósio organizado pela NASA, nos dias 30-31 de de março de 1993, Ohio. Disponível em: https://ntrs.nasa.gov/citations/19940022856.

Introdução

 

Nos próximos 30 anos, teremos à nossa disposição dispositivos tecnológicos para criar inteligências sobre-humanas. Tendo isto em vista, a Era humana pode ser tomada como encerrada. Esta forma de progresso pode/deve ser evitada? Caso a resposta seja não, é possível que conduzamos os eventos para que nós, espécie humana, possamos sobreviver? Tais perguntas serão analisadas, algumas respostas possíveis (e algumas preocupações) estão presentes.

 

O que é a singularidade?

 

A aceleração do progresso tecnológico é a principal característica deste século. Neste artigo, argumento que estamos à beira de uma mudança comparável ao surgimento da vida humana em nosso planeta. A causa exata dessa transformação é a criação iminente causada pela tecnologia, de entidades tecnológicas com inteligência superior à humana. Há diversos meios pelos quais a ciência pode alcançar esse avanço - e esse é outro motivo para termos confiança de que o evento ocorrerá:

1. O desenvolvimento de computadores que posteriormente serão “despertos” e serão sobre-humanamente inteligentes. Até o momento, a maioria da controvérsia na área de IA estar relacionada com a possibilidade de criarmos uma equivalência humana em uma máquina. Se a resposta for “sim”, então não há dúvida de que seres mais inteligentes poderão ser construídos logo em seguida.

2. Grandes redes de computadores (e seus respectivos usuários) podem “despertar” como uma entidade com inteligência sobre-humana.

3. As interfaces computador/humano podem se tornar tão intrínsecas que os usuários podem ser razoavelmente considerados super-humanos inteligentes.

4. As ciências biológicas deverão encontrar meios de aprimorar o intelecto humano natural.

As três primeiras possibilidades dependem, na sua maioria, dos aprimoramentos no hardware do computador. O progresso no hardware do computador seguiu uma curva incrivelmente estável nas últimas décadas[1]. Com base principalmente nessa tendência, acredito que a criação de uma inteligência superior à humana ocorrerá nos próximos trinta anos. De acordo com essa tendência, acredito que a criação de uma inteligência superior à humana ocorrerá nos próximos trinta anos – Charles Platt[2] observou que os entusiastas da IA têm feito afirmações como essa nos últimos trinta anos. Portanto, para que eu não seja culpado por uma ambiguidade de tempo relativo, permitam-me ser mais específico: ficarei surpreso se esse evento ocorrer antes de 2005 ou depois de 2030.

Quais são as consequências deste evento? Quando uma inteligência superior à humana impulsiona o progresso, esse progresso ocorrerá muito mais rapidamente. De fato, parece não haver razão para que o próprio progresso não envolva a criação de entidades ainda mais inteligentes em uma escala de tempo ainda mais curta. A analogia mais adequada, agora, é a com o passado remoto: os animais podem se adaptar aos problemas e desenvolver invenções, mas geralmente não mais rápido do que a seleção natural pode fazer, o mundo age como o seu próprio regulador no caso da seleção natural.

Nós, seres humanos, possuímos a capacidade de internalizar o mundo e realizar o “e se” em nossas cabeças; podemos resolver muitos problemas com velocidade superior ao tempo da seleção natural. Agora, ao criar meios para executar essas simulações em velocidades muito mais altas, estamos entrando em um regime radicalmente diferente do nosso passado humano, assim como nós humanos somos diferentes das demais espécies animais (que na maioria tomamos como inferiores).

Do ponto de vista humano, é um esvaziamento, pelo menos, da maioria das regras, provavelmente em um piscar de olhos, haverá uma fuga exponencial além de qualquer esperança de controle. Desenvolturas que antes se pensava que só aconteceriam em “um milhão de anos” (se é que aconteceriam) provavelmente acontecerão no próximo século. Greg Bear (1951-2022)[3] apresenta uma imagem das principais mudanças que aconteceram em questão de horas.

Acho que é legitimo chamar este evento de singularidade ("A Singularidade” para os fins deste artigo). É um ponto em que nossos paradigmas devem ser descartados e uma nova realidade passa a predominar. À medida que nos aproximarmos cada vez mais desse momento, ele se tornará cada vez mais importante para os assuntos humanos, até que passe a ser um lugar-comum. Contudo, quando este fenômeno ocorrer, talvez seja uma grande surpresa e/ou desconhecido. Na década de 1950, eram poucos os que percebiam isso. Stanisław Ulam (1909-1984)[4] menciona John von Neumann (1903-1957) dizendo:

Uma das conversas se concentrou sobre o progresso cada vez mais acelerado da tecnologia e as mudanças no modo de vida humano, dando a impressão de estarmos nos aproximando de alguma singularidade essencial na história da espécie, além da qual os assuntos humanos, como os conhecemos, não poderiam continuar sendo as mesmas.

Von Neumann até usa a palavra “singularidade”, embora pareça que ele ainda conceba o progresso normal e, não, na criação de um intelecto sobre-humano. (Para mim, a super-humanidade é a essência da Singularidade. Sem isso, teremos um excesso de riquezas técnicas, nunca devidamente absorvidas). Na década de 1960, reconheceram-se algumas das implicações da inteligência sobre-humana. Irving John Good (1916-2009) escreve:

Uma máquina ultra inteligente deve ser definida como uma máquina que pode superar em muito todas as atividades intelectuais de qualquer humano, por mais inteligente que seja. Como o projeto destas máquinas é uma destas atividades intelectuais, uma máquina ultra inteligente poderia projetar máquinas ainda melhores, portanto, haveria, sem dúvida, uma “explosão de inteligência”, e a inteligência do ser humano seria abandonada. Logo, a primeira máquina ultra inteligente é a última invenção que o homem precisa fazer, desde que a máquina seja obediente o suficiente para nos dizer como mantê-la sob controle. (...) É muito provável que, em algum momento do século XX, uma máquina ultra inteligente seja construída e que ela, seja capaz de se adaptar ao ambiente, uma máquina ultra inteligente seja construída e que essa, seja a última invenção que o homem precise fazer[5].

Good capturou a essência desta fuga, mas não analisa as consequências mais preocupantes. Qualquer modelo de máquina inteligente que ele descreve não seria uma “ferramenta” da humanidade, assim como os humanos não são ferramentas de coelhos ou chimpanzés.

Durante as décadas de 1960, 1970 e 1980, o reconhecimento desta catástrofe se espalhou[6]. Talvez sejam os escritores de ficção científica que tenham sentido o primeiro impacto real. Afinal de contas, os escritores de ficção científica “hard” são aqueles que tentam escrever histórias na qual a tecnologia pode fazer para nós humanos. Cada vez mais, esses escritores sentiam um muro impenetrável sobre o futuro. Outrora, os mesmos podiam colocar tais fantasias milhões de anos no futuro[7].

Neste momento, eles perceberam que suas extrapolações mais minuciosas resultaram no incognoscível... em breve. Antigamente, os impérios galácticos podiam parecer um domínio pós-humano. Agora, infelizmente, até mesmo os interplanetários o são.

E quanto aos anos 1990, 2000 e 2010, à medida que nos aproximamos do limite? Como a abordagem da Singularidade se espalhará pela visão de mundo humana? Por algum tempo, os críticos gerais da sapiência das máquinas terão uma boa repercussão. Afinal, até que tenhamos um hardware tão poderoso quanto um cérebro humano, é provavelmente tolice pensar que conseguiremos criar uma inteligência equivalente (ou superior) à humana. (Existe a possibilidade improvável de que possamos criar um equivalente humano com um hardware menos potente, se estivermos dispostos a renunciar à velocidade, se estivermos dispostos a nos contentar com um organismo artificial que seja literalmente lento[8]. Todavia, é muito provável que a criação do software seja um processo complexo, que envolve muitos falsos começos e experimentos. Se for o caso, a chegada de máquinas autoconscientes apenas ocorrerá após o desenvolvimento de um hardware substancialmente mais potente do que o equipamento natural dos seres humanos).

Porém, com o passar do tempo, deverão surgir mais sintomas. O dilema experimentado pelos escritores de ficção científica será percebido em outros empreendimentos criativos. (Eu já ouvi que escritores de histórias em quadrinhos se preocupam em como obter efeitos espetaculares quando tudo o que é visível pode ser produzido por pessoas tecnicamente comuns).

Testemunharemos a automação substituindo empregos de nível cada vez mais alto. Atualmente, temos ferramentas (programas de matemática simbólica) que nos liberam da maior parte do trabalho pesado de baixo nível. Em outras palavras: o trabalho que é realmente produtivo é do domínio de uma fração decrescente e mais elitizada da sociedade. Com a chegada da Singularidade, estamos vendo as previsões do verdadeiro desemprego tecnológico finalmente se tornar realidade.

Outro diagnóstico do progresso em direção à Singularidade é o de que as próprias ideias devem se espalhar cada vez mais rápido, e até mesmo as mais radicais se tornarão rapidamente comuns. Quando comecei a escrever, parecia muito fácil ter ideias que levavam décadas para se infiltrar na consciência cultural; agora, o tempo de espera parece ser mais de dezoito meses. (É claro que isso pode ser apenas o fato de eu estar perdendo a imaginação à medida que envelheço, mas também percebo esse efeito em outras pessoas). Assim como o choque em um fluxo compressível, a Singularidade se aproxima à medida que aceleramos até a velocidade máxima.

E o que dizer da chegada da própria Singularidade? O que pode ser? O que dizer de sua aparência real? Como ela envolve uma fuga intelectual, ela provavelmente ocorrerá mais rápido do que qualquer revolução tecnológica registrada até o momento. O evento precipitante provavelmente será inesperado, talvez até mesmo para os pesquisadores envolvidos. (Mas todos os nossos modelos anteriores eram catatônicos! Estávamos apenas ajustando alguns parâmetros...). Se a rede estiver suficientemente difundida em sistemas incorporados onipresentes, pode parecer que nossos artefatos tecnológicos como um todo “despertaram” repentinamente.

E o que acontece em um ou dois meses (ou um ou dois dias) depois disso? Tenho apenas analogias para apontar: A ascensão da humanidade, entraremos na Era pós-humana. Apesar de todo o meu otimismo tecnológico selvagem, às vezes acho que me sentiria mais confortável se estivesse analisando esses eventos transcendentais a mil anos de distância... em vez de vinte.

 

É possível evitar a Singularidade?

 

Talvez isso possa não se tornar realidade, às vezes tento imaginar os sintomas que deveríamos esperar, e ver se a Singularidade não irá ocorrer. Neste sentido, argumentos como os de Roger Penrose[9]  e as de John Searle[10]contra a praticidade da sapiência das máquinas. Em agosto de 1992, a Thinking Machines Corporation realizou um workshop para investigar a questão "Como construiremos uma máquina que pensa." Como você pode imaginar pelo título do workshop, os participantes não simpatizavam com os argumentos contrários à inteligência das máquinas.

Realmente, havia um consenso de que a consciência humana pode existir em substratos não biológicos e que os algoritmos são de importância fundamental para a existência da consciência. Contudo, houve um debate intenso em torno da potência bruta de hardware que está presente nos cérebros orgânicos. Uma minoria acreditava que os maiores computadores de 1992 estavam dentro das três ordens de magnitude da potência do cérebro humano. A maioria dos participantes estava, conforme a previsão de Hans Moravec[11] que estamos a dez ou quarenta anos de distância da equiparação de hardware. E ainda havia outra minoria que conjecturava que a competência computacional de um único neurônio pode ser muito maior do que geralmente se acredita[12]. Se esta proposição for verdadeira, o nosso hardware de computador atual pode estar até dez ordens de magnitude abaixo do equipamento (cérebro) que carregamos em nossas cabeças. Se essa afirmação for verdadeira, ou melhor, se a crítica de Penrose ou de Searle for válida, talvez nunca presenciemos a chegada da Singularidade.

Em vez disso, no início dos anos 2000, perceberíamos que as curvas de desempenho de hardware começariam a se estabilizar, teríamos um hardware muito potente, mas sem a capacidade de levá-lo adiante. O processamento comercial de sinais digitais pode ser incrível, dando uma aparência analógica até mesmo às operações digitais, mas nada jamais “despertaria” e nunca haveria a fuga intelectual que é a essência da Singularidade.

Provavelmente seria considerado a Era de ouro... assim como seria o fim do progresso. Isso é muito parecido com o futuro previsto por Gunther Stent (1924-2008), certamente na página 137[13]. Stent menciona explicitamente o desenvolvimento de uma inteligência transhumana como uma condição suficiente para interromper suas projeções.

Mas se houver a possibilidade de que a Singularidade possa ocorrer, ela ocorrerá. Mesmo que todos os governos do mundo entendessem a “ameaça” e tivessem um temor profundo pela Singularidade, o progresso em direção à realização da Singularidade continuaria. Na ficção científica, há histórias em que há leis que proíbem a produção de “máquinas que possuam uma consciência parecida com a do humano[14].” Com efeito, a vantagem competitiva - econômica, militar e até artística - de cada avanço na automação é tão convincente que a aprovação de leis ou a existência de costumes que proíbam essas coisas apenas garantem que alguém as obterá primeiro.

Eric Drexler[15] proporciona uma visão espetacular sobre até onde o aperfeiçoamento tecnológico pode chegar. Ele concorda que inteligências sobre-humanas estarão disponíveis em breve e que tais entidades representam uma ameaça ao status quo humano. Porém, Drexler argumenta que podemos incorporar esses dispositivos transhumanos em regras ou confinamento físico de modo que seus resultados possam ser examinados e usados com segurança.

            Esta é a ultra máquina de Irving John Good, porém, mais contido. Defendo que esta prática de confinamento é intrinsecamente impraticável. Partindo da opção de confinamento físico: Imagine-se confinado em sua própria casa com acesso limitado a dados externos, aos seus mestres. Se os mestres pensassem em uma velocidade, digamos, um milhão de vezes mais lenta do que a sua, não há dúvida de que, em um período de anos (o seu tempo), você poderia apresentar “orientações prestativas” que, incidentalmente, irá libertá-lo - Eu chamo essa maneira de “pensamento rápido” de superinteligência de “super-humanidade fraca.”

            Essa entidade “fracamente sobre-humana” provavelmente irá se esgotar em algumas semanas. Uma “super-humanidade forte” seria mais do que acelerar a velocidade do relógio em uma inteligência equivalente à humana. É difícil precisar com exatidão o que seria uma “super-humanidade forte”, mas a diferença parece ser profunda. Imagine uma mente canina funcionando em alta velocidade. Será que mil anos de vida canina acrescentariam algum insight ao humano? (Por outro lado, se a consciência do cachorro fosse habilmente reconectada, depois operada em alta velocidade, poderíamos perceber algo diferente...).

A grande maioria das especulações sobre superinteligência parece se basear no modelo de super-humano fraco. Considero que as nossas melhores suposições sobre o mundo pós-singularidade (pós-humana) possam ser obtidas ao refletir sobre a natureza da super-humanidade forte. Voltarei a esse ponto mais adiante.

A outra proposta de modelo de confinamento drexleriano é a de criar regras na mente da entidade sobre-humana criada (p. ex. as Leis de Asimov). Acredito que as regras de desempenho suficientemente rígidas para serem seguras também produziriam um dispositivo cuja capacidade fosse claramente inferior às versões sem restrições, portanto, a concorrência humana favoreceria o desenvolvimento dos modelos mais perigosos).

Ainda assim, o projeto de Asimov é maravilhoso: imagine um escravo disposto, que tenha mil vezes mais capacidades do que você em todos os sentidos. Imagine uma criatura que possa satisfazer todos os seus desejos de maneira segura (seja lá o que isso signifique) e ainda ter 99,9% de seu tempo livre para outras atividades. Haveria um novo universo que nunca chegamos a compreender, mas repleto de deuses benévolos (apesar de o meu desejo seja me tornar um deles).

Se a Singularidade não pode ser inviabilizada ou contida, quão ruim poderia ser a Era pós-humana? Bem... muito ruim. Existe a possibilidade da extinção física da espécie humana. Ou, como disse Eric Drexler, da nanotecnologia: “considerando tudo o que essa tecnologia pode fazer, talvez os governos simplesmente decidam que não precisam mais de cidadãos!” Contudo, a extinção física pode não ser a possibilidade mais assustadora. Mais uma vez, analogias: considere as diferentes formas de nos relacionarmos com os animais. Alguns dos abusos físicos grosseiros são implausíveis, mas... Em um cenário pós-humano, ainda haveria muitos segmentos no qual a automação equivalente à humana seria conveniente: sistemas incorporados em dispositivos autônomos, daemons autoconscientes no funcionamento inferior de seres maiores. (Uma inteligência fortemente super-humana provavelmente seria uma Sociedade da mente com alguns componentes muito eficientes)[16].

Alguns destes equivalentes humanos podem ser usados para nada mais do que o processamento de sinais digitais. Eles seriam mais parecidos com baleias do que com humanos. Outros podem ser muito parecidos com os humanos, mas com uma unilateralidade, uma dedicação que os colocaria em um hospital psiquiátrico em nossa época. Embora nenhuma destas criaturas possa ser um ser humano de carne e osso, elas podem ser as coisas mais próximas, no novo ambiente, do que chamamos de humano atualmente. (Irving John Good tinha algo a dizer sobre isso, embora, a esta altura, o conselho possa ser discutível: Good propôs uma “Metaregra de ouro”, que pode ser sintetizada como “Trate seus inferiores como você seria tratado por seus superiores”. É uma ideia maravilhosa e paradoxal (e a maioria dos meus colegas não acredita nela), já que a recompensa da teoria dos jogos é muito difícil de articular. No entanto, se conseguíssemos segui-la, de certa forma isso poderia dizer algo sobre a plausibilidade de tal bondade neste cenário)[17].

Defendi acima que não podemos impedir a Singularidade, que sua chegada é uma consequência inevitável da competitividade natural dos seres humanos e das possibilidades inerentes à tecnologia. Entretanto... somos os precursores. Até mesmo a maior avalanche é desencadeada por pequenas coisas. Temos a liberdade de estabelecer as condições iniciais, fazer com que as coisas aconteçam de maneiras que sejam menos prejudiciais do que outras. É claro que (como no início de avalanches), pode não estar claro qual é a orientação correta.

 

Outros caminhos para a Singularidade: A Amplificação da inteligência

 

            Quando as pessoas falam em criar uma inteligência sobre-humana, geralmente estão imaginando um projeto de IA. Mas, como observei no início deste artigo, há outros caminhos para a super-humanidade.

            As redes de computadores e as interfaces homem-computador parecem mais mundanas do que a IA e, ainda assim, podem levar à Singularidade. Chamo essa abordagem contrastante de Amplificação da Inteligência (AI). A AI é algo que está se desenvolvendo muito naturalmente e, geralmente, nem mesmo é reconhecida por seus desenvolvedores. Mas toda vez que nossa capacidade de acessar informações e comunicá-las a outras pessoas é aprimorada, de certa forma conseguimos um avanço em relação à inteligência natural.

Mesmo agora, uma equipe de seres humanos com doutorado e uma boa estação de trabalho com computador (mesmo uma estação de trabalho fora da rede) provavelmente poderia superar qualquer teste de inteligência escrito existente. E é muito provável que a IA seja um caminho muito mais fácil para a conquista da super-humanidade do que a IA pura. Nos seres humanos, os problemas mais difíceis de desenvolvimento já foram resolvidos.

Construir a partir de dentro de nós mesmos deve ser mais fácil do que descobrir primeiro o que realmente somos e depois construir máquinas que sejam tudo isso. E há pelo menos um precedente conjectural para essa abordagem. Graham Cairns-Smith[18] (1931-2016), especulou que a vida biológica pode ter começado como um complemento à vida ainda mais primitiva baseada no crescimento cristalino. Lynn Margulis[19] (1938-2011) apresentou argumentos sólidos para a visão de que o mutualismo é a grande força motriz da evolução.

            Repare que não estou propondo que a pesquisa em IA seja ignorada ou receba menos financiamento, o que acontece com a IA geralmente tem aplicações na AI, e vice-versa. O que estou sugerindo é que reconheçamos que na pesquisa de redes e de interfaces há algo tão profundo (e potencialmente selvagem) quanto a Inteligência Artificial. A partir desse insight, podemos perceber projetos que não são tão diretamente aplicáveis quanto o trabalho convencional de design de redes e interfaces, mas que servem para nos fazer avançar em direção à Singularidade ao longo do caminho da IA. Aqui estão alguns projetos possíveis que assumem importância especial, considerando o ponto de vista da AI.

1. Automação da equipe humana/computador: considerar problemas que normalmente são considerados de solução puramente mecânica - como problemas de escalada de colinas e projetar programas e interfaces que aproveitem a intuição humana e o hardware do computador disponível. Considerando toda a estranheza dos problemas de escalada

- e os algoritmos concebidos para a sua solução, poderiam ser fornecidos ao membro humano da equipe alguns indicadores e ferramentas de controle muito interessantes.

2. Desenvolver uma simbiose, homem/computador na arte: combinar a capacidade de geração gráfica das máquinas modernas e a sensibilidade estética do ser humano. É evidentemente enorme a quantidade de investigação realizada na concepção de ajudas tecnológicas para artistas, como ferramentas de poupança de trabalho, estou sugerindo para procurarmos explicitamente uma maior fusão de competências, que reconheçamos explicitamente a abordagem cooperativa é possível. Karl Sims, tem feito um excelente trabalho nesta direção[20].

3. Permitir a presença de equipes humanas e de computadores nos torneios de xadrez. Já dispomos de programas que jogam melhor do que quase todos os humanos. Mas quanto trabalho foi feito sobre a forma de como este poder poderia ser utilizado por um humano, para conseguir algo ainda melhor? Se essas equipes fossem permitidas em pelo menos alguns torneios de xadrez, isso poderia ter o efeito positivo na investigação sobre a IA, na qual a permissão de computadores em torneios teve para o lugar correspondente na IA.

4. Desenvolver interfaces que permitam o acesso ao computador e à rede sem exigir que o ser humano esteja ligado a um local específico, sentado em frente a uma tela de computador. Este é um aspecto da AI que se enquadra nas vantagens econômicas conhecidas que já estão sendo desenvolvidos muitos esforços nesse sentido.

5. Desenvolver sistemas de apoio às decisões mais simétricas. Um domínio de investigação/produto muito popular nos últimos anos tem sido o dos sistemas de apoio à decisão. Trata-se de uma forma de AI, mas pode estar demasiado centrada em sistemas que são oraculares. Para além do programa, dar informações ao utilizador deve haver uma interação na qual o utilizador ofereça as orientações ao programa.

6. Utilizar redes locais para criar equipes humanas que trabalhem realmente – as IAs são mais eficientes do que os membros humanos que as compõem. Este é geralmente a área do groupwear - software livre, que já comercialmente popular. A mudança de ponto de vista neste caso seria considerar a atividade de grupo como um organismo combinado, no sentido desta sugestão ser considerada com o objetivo de inventar um “Regulamento de Ordem” para tais operações de combinação. Por exemplo, o foco do grupo pode ser mais facilmente mantido do que nas reuniões clássicas. A competência dos membros humanos individuais poderia ser isolada do ego humano, de modo que a contribuição dos diferentes membros se concentre no projeto da equipe. E, claro, as bases de dados compartilhadas podem ser utilizadas de forma muito mais conveniente do que nas operações convencionais de comitê. (Observe que esta sugestão é voltada para operações de equipes empresariais e não para reuniões políticas. Já no contexto político, a automatização acima simplesmente iria reforçar o poder das pessoas que fazem as regras).

7. Explorar ao nível global a internet como uma ferramenta combinada entre homem/máquina. De todos os tópicos desta lista, o avanço desta área é a mais veloz, e é a que pode nos conduzir em direção à Singularidade antes de qualquer outra coisa. A influência e o poder da internet são subestimados pelos especialistas. Por exemplo, penso que os nossos sistemas de computadores entrariam em colapso da própria complexidade se não fosse a vantagem que a “mente de grupo” da USENET proporciona aos administradores de sistemas e ao pessoal de apoio. A “anarquia” de seu desenvolvimento da rede global comprova o tamanho de seu potencial, enquanto a banda larga, a conectividade, o tamanho dos arquivos e a velocidade dos computadores, estamos presenciando algo semelhante ao que a visão de Lynn Margulis da biosfera como um processador de dados recapitulada, mas a uma velocidade um milhão de vezes superior e com milhões de agentes humanamente inteligentes (nós mesmos).

            Os exemplos acima demonstram as pesquisas que podem ser feitas no

contexto dos departamentos contemporâneos de ciência da computação. Há outros paradigmas, por exemplo, grande parte do trabalho em IA e as de redes neurais se beneficiariam de uma conexão mais próxima com a vida biológica, ao invés de simplesmente tentar reproduzir e compreender a vida biológica a partir de computadores, a pesquisa poderia ser direcionada para a criação de sistemas compostos que dependem da vida biológica para a orientação ou para fornecer recursos que ainda não compreendemos suficientemente bem para implementar em um hardware.

            Uma especulação relativamente antiga da ficção científica são as interfaces diretas entre cérebro e computador[21]. De fato, há um trabalho concreto que pode ser feito - e já foi feito nessa área.

1. A prótese de membros artificiais é um tópico de aplicabilidade comercial com aplicação. Já é possível fabricar transdutores de nervos com silicone[22]. Esta é uma etapa empolgante e de curto prazo em direção à comunicação direta.

2. Links diretos semelhantes para os cérebros podem ser viáveis, se a taxa de bits for baixa: dada a flexibilidade do aprendizado humano, os alvos reais dos 100 bits por segundo seriam de grande utilidade para vítimas de derrame que, de outra forma, ficariam restritas a interfaces orientadas por programas.

3. A conexão com o tronco óptico tem o potencial de uma banda larga de 1 Mbit/Mbps ou mais. Mas para isso, precisamos conhecer a arquitetônica da visão em escala precisa, além disso, precisaremos adicionar uma enorme rede de eletrodos com extrema precisão. Se desejamos que nossa conexão de banda larga alta seja adicional aos caminhos já presentes no cérebro, o problema se torna muito mais complexo. A simples adição de uma malha de receptores de banda larga alta no cérebro certamente não resolverá o problema. Portanto, supondo que a malha de banda larga alta estivesse presente enquanto a estrutura do cérebro estava de fato se estabelecendo, à medida que o embrião se desenvolve. Para tanto, sugerimos que:

4. Haja desenvolvimento de experimentos em embriões de animais. Eu, particularmente, não contaria com nenhum sucesso de IA nos primeiros anos desta pesquisa, mas proporcionar ao cérebro em desenvolvimento acesso a estruturas neurais simuladas complexas parece ser muito interessante para as pessoas que estudam como o cérebro embrionário em desenvolvimento. Ao longo prazo, esses experimentos podem produzir

animais com caminhos sensoriais adicionais e habilidades intelectuais interessantes.

            A princípio, eu esperava que essa discussão sobre AI produzisse algumas abordagens mais seguras para a Singularidade, afinal de contas, a AI permite a nossa participação neste tipo de transcendência. Infelizmente, observando essas propostas de AI, a única coisa de que tenho certeza é que elas devem ser consideradas, que elas podem nos dar mais opções. Mas quanto à segurança... bem, algumas das sugestões são um pouco assustadoras do que outras.

            Um de meus consultores informais apontou que a AI para humanos individuais produz uma elite sinistra. Nós, humanos, temos milhões de anos de bagagem evolutiva que nos faz ver a concorrência de uma forma terrível. Muito dessa letalidade pode não ser necessária na contemporaneidade, onde os perdedores adotam os truques dos vencedores, nos quais são incluídos aos empreendimentos dos vencedores.

            Uma espécie recriada pode ser uma entidade muito mais benigna do que uma com um núcleo baseado em presas e garras. E mesmo que a partir de uma visão igualitária de uma Internet que desperta com toda a humanidade, pode ser vista como um pesadelo[23].

            O problema não é o fato de a Singularidade representar simplesmente a passagem da humanidade do centro para o exterior, mas que ela contradiz algumas de nossas concepções mais profundas de ser. Acho que um olhar mais atento ao conceito de super-humanidade forte pode mostrar por que isso acontece.

 

Uma super-humanidade mais forte é o que podemos desejar

 

            Supondo que nós humanos possamos nos adaptar à Singularidade, suponhamos que alcancemos as nossas esperanças mais ambiciosas. O que faríamos então? Que a própria humanidade fosse tida como o seu sucessor (da Singularidade) que qualquer injustiça que ocorresse seria amenizada pelo conhecimento de nossas origens. Para aqueles que decidirem se manterem inalterados, o objetivo seria a realização de um tratamento benigno (talvez até dando aos remanescentes a aparência de serem senhores de escravos semelhantes aos deuses). A Singularidade poderia proporcionar uma Era de ouro na qual envolvesse o progresso – na qual ultrapassa a barreira de Stent. A imortalidade, ou pelo menos que a longevidade, fosse estendida por um tempo considerável para que pudéssemos viver para além do nosso universo[24].

            Mas nesta realidade utópica, os próprios problemas filosóficos se tornam impressionantes, ao mesmo tempo, sombrios. Uma mente que permanece com a mesma capacidade não pode viver para sempre, após alguns milhares de anos, ela se pareceria mais com um loop de uma fita repetitiva do que com uma pessoa[25]. Para que se possa viver indefinidamente, por um tempo longo, a própria mente (cérebro?) deve crescer... e quando ela se torna grande o suficiente e olha para trás... que sentimento pode ter em relação àquilo que já foi? Certamente, o ser posterior (pós-humano) seria tudo o que o original era, mas muito mais. Desta maneira, mesmo para o indivíduo, a concepção de Cairns-Smith (ou de Lynn Margulis) de uma nova vida crescendo gradualmente a partir da antiga ainda deve ser considerada válida.

            O problema sobre a “imortalidade” aparece de maneira explicita, as concepções de ego e autoconsciência são consideradas o alicerce do racionalismo radical nos últimos séculos. Contudo, agora o conceito de autoconsciência parece estar sendo invalidado por meio do surgimento e o desenvolvimento da IA – o conceito de autoconsciência e outros conceitos ilusórios. A Ampliação da Inteligência reduz a importância do ego para outra direção.

            O mundo da pós-Singularidade será envolvido por uma rede de banda larga extremamente alta e eficiente. Uma característica relevante das entidades fortemente sobre-humanas provavelmente será sua capacidade de se comunicar por meio da banda larga, inclusive de maneira mais eficiente do que a da fala ou por meio da escrita, em outras palavras, da linguagem natural.

            O que acontece quando partes do ego podem ser copiadas e mescladas, quando o tamanho de uma autoconsciência pode crescer ou diminuir para se ajustar à natureza dos

problemas que estão sendo considerados? Essas são as principais características de uma entidade super-humana ou da Singularidade. Ao imaginar/pensar sobre elas, é possível perceber de como a Era pós-humana será fundamentalmente diferente e estranha, não importa a quão inteligente e benigna ela seja apresentada para nós humanos.

            Qual é o ponto de vista que devemos considerar? Realmente, eu acredito que esta nova Era (a da Singularidade) é diferente demais para se encaixar (e encaixarmos ela) na estrutura clássica do que concebemos como bem e mal. Essa estrutura é baseada na ideia de mentes isoladas e imutáveis conectadas por ligações tênues e de banda larga baixa. Mas o mundo da pós-Singularidade se encaixa na tradição onde ocorre maior transformação e cooperação que começou há muito tempo – fenômenos estes que talvez estejam ocorrendo antes do que compreendemos como o surgimento da vida biológica.

            Considero que há noções de ética que se aplicariam em um determinado período. As pesquisas sobre AI e comunicações de banda larga alta devem melhorar essa compreensão. Agora, estou testemunhando os vislumbres destes eventos/fenômenos, a partir da metaregra de Ouro de Good, talvez regras para poder distinguir o eu do outro com base na banda larga. Embora a consciência e o eu seja muito mais instáveis do que no passado, muito do que valorizamos (conhecimento, memória, pensamento) jamais precisará ser perdido. Penso que Freeman Dyson (1923-2020) está certo quando diz: “Deus é o que a mente se torna quando ela ultrapassa a escala de nossa compreensão.”[26]

 

Meus agradecimentos a John Carrol , da Universidade Estadual de San Diego e a Howard Davidson, da Sun Microsystens, por discutirem comigo uma versão não concluída deste artigo - Vernor Vinge.



[1] Moravec, Hans. Mind children, Harvard University Press, 1988 (NA).

[2] Platt, Charles.  Private Communication (NA).

[3] Bear, Greg. Blood Music. Analog Science Fiction-Science Fact. June, 1983. Expanded into the novel Blood Music, Morrow, 1985 (NA).

[4] Ulam, S. Tribute to John von Neumann. Bulletin of the American Mathematical Society, vol. 64, n. 3, part 2, May, p. 49, 1958 (NA).

[5] Good, I. J. Speculations concerning the first ultraintelligent machine. In: Advances in Computers, vol. 6, Franz L. Aft and Morris Rubinoff, (Eds.)., p. 31-88, 1965, Academic Press (NA).

[6] Hannes Alfvén (1908-1995), sob o pseudônimo de Olof Johanneson escreveu The end of man? (1966). Greg Bear, mencionado anteriormente, também abordou o tema. Vernor Vinge em Bookworm, Run! (1966), First word (1983) e em True names and other dangers (1987) também escreve sobre (NA).

[7] Stapledon, Olaf. The starmaker. Berkley Books, 1961 (but from the forward probably written before 1937) (NA).

[8] Vinge, Vernor. True Names, Binary Star. Number 5, Dell, 1981. Reprinted in True Names and Other Dangers. Vernor Vinge, Baen Books, 1987 (NA).

[9] Penrose, R. The Emperor's New Mind. Oxford University Press, 1989 (NA).

[10] Searle, John R. Minds, Brains, and Programs, in The Behavioral and Brain Sciences, v.3, Cambridge University Press, 1980. The essay is reprinted in The Mind's I, edited by Douglas R. Hofstadter and Daniel C. Dennett, Basic Books, 1981. This reprinting contains an excellent critique of the Searle essay (NA).

[11] Ver a segunda nota de rodapé (NA).

[12] Conrad, Michael. et al. Towards an Artificial Brain. BioSystems, vo123, p. 175-218, 1989; Rasmussen, S. et al. Computacional Connectionism within Neurons: a Model of Cytoskeletal Automata Subserving Neural Networks. In: Emergent Computation, Stephanie Forrest. (Ed.)., p. 428-449, MIT Press, 1991. (NA).

[13] Stent, Gunther S. The Coming of the Golden Age: A View of the End of Progress. The Natural History Press, 1969 (NA).

[14] Herbert, Frank. Dune. Berkley Books, 1985. However, this novel was serialized in Analog Science Fiction Science fact in the 1960s (NA).

[15] Drexler, Eric K. Engines of Creation. Anchor Press/Doubleday, 1986 (NA).

[16] Minsky, Marvin. Society of Mind. Simon and Schuster, 1985.

[17] Good, I. J., [Help! I can't find the source of Good's Meta-Golden Rule, though I have the clear recollection of hearing about it sometimes in the 1960s. Through the help of the net, I have foundpointers to a number of related items. G. Harry Stine and Andrew Haley have written about metalaw as it might relate to extraterrestrials: G. Harry Stine. How to Get along with Extraterrestrials... or Your Neighbor. Analog Science Fact-Science Fiction, February, 1980, p39-47 (NA).

[18] Cairns-Smith, A. G. Seven Clues to the Origin of Life. Cambridge University Press, 1985 (NT).

[19] Margulis, Lynn and Dorion Sagan. Microcosmos, Four Billion Years of Evolution from Our Microbial Ancestors. Summit Books, 1986.

[20] Sims, Karl. Interactive Evolution of Dynamical Systems. Thinking Machines Corporation. Technical Report Series. (published in Toward a Practice of Autonomous Systems: Proceedings of the First European Conference on Artificial Life, Paris, MIT Press, December 1991.

[21] Anderson, Poul, Kings Who Die. If, March 1962, p. 8-36. Reprinted in Seven Conquests, Poul Anderson, MacMillan Co. 1969. Vinge, Vernor. Bookworm, Run! Analog, March 1966, p. 8-40. Reprinted in True Names and Other Dangers. Vernor Vinge, Baen Books, 1987 (NA).

[22] Kovacs, G. T. A. et al. Regeneration Microelectrode Array for Peripheral Nerve Recording and Stimulation. IEEE Transactions on Biomedical Engineering, v. 39, n 9, p 893-902, 1992 (NA).

[23] Swanwick Michael. Vacuum Flowers. serialized in Isaac Asimov's Science Fiction Magazine. December(?) 1986 - February 1987. Republished by Ace Books, 1988 (NA).

[24] Barrow, John D. and Frank J. Tipler, The Anthropic Cosmoloqical Principle. Oxford University Press, 1986.

Dyson, Freeman. Physics and Biology in an Open Universe. Review of Modern Physics, vol.  51, p. 447-460, 1979 (NA).

[25] Niven, Larry. The Ethics of Madness. If, April 1967, pp82-I08. Reprinted in Neutron Star. Larry Niven. Ballantine Books, 1968 (NA).

[26] Dyson, Freeman. Infinite in All Directions. Harper & Row, 1988 (NA).

Nenhum comentário:

Postar um comentário