Por Brian Miller
No debate da evolução, uma questão fundamental é a capacidade da seleção natural de produzir inovações complexas. Em um artigo anterior, expliquei com base nas teorias de engenharia da inovação porque as mudanças de pequena escala que impulsionam a microevolução não devem ser capazes de se acumular para gerar as mudanças de grande escala necessárias para a macroevolução. Essa observação corresponde perfeitamente à pesquisa em biologia do desenvolvimento e ao padrão do registro fóssil. No entanto, as limitações da evolução darwiniana foram demonstradas ainda mais rigorosamente nos campos da computação evolucionária e da matemática. Esses desafios teóricos são detalhados no livro Introdução à Informática Evolutiva (inglês).
Os autores Robert Marks, William Dembski e Winston Ewert trazem décadas de experiência em algoritmos de busca e teoria da informação para analisar a capacidade da evolução biológica de gerar diversas formas de vida. Sua conclusão é que nenhum processo evolutivo é capaz de produzir diferentes resultados (por exemplo, novos planos corporais), limitando-se a uma faixa muito estreita de resultados (por exemplo, tentilhões com diferentes tamanhos de bico). Em vez disso, produzir qualquer coisa de complexidade significativa requer que o conhecimento dos resultados seja programado nas rotinas de pesquisa. Portanto, qualquer reivindicação de capacidade ilimitada de evolução não guiada para transformar a vida é necessariamente implausível.
Os autores começam a discussão fornecendo algumas informações necessárias. Eles apresentam uma visão geral de como a informação é definida e estabelecem as medidas padrão da complexidade de KCS (Kolmogorov-Chaitin-Solomonov) e a informação de Shannon. O primeiro fornece o número mínimo de bits necessários para repetir um padrão – a compressibilidade máxima. Este último relaciona-se com o log da probabilidade de algum padrão emergir como um resultado. Por exemplo, a probabilidade de lançar cinco moedas e todas darem “cara” é de 1/32. O conteúdo informacional de CCCCC é então o log negativo (base 2) de 1/32, que é de 5 bits. Mais simplesmente, um resultado específico de 5 lançamentos de moeda é equivalente a 5 bits de informação.
Eles descrevem como as pesquisas em engenharia para alguns resultados de design envolvem os três componentes de especialização em domínio, critérios de design e pesquisa iterativa. O processo envolve a criação de um protótipo e, em seguida, a verificação para ver se ele atende aos critérios, o que funciona como uma meta teleológica. Se o design inicial não funciona, o protótipo é refinado e o teste repetido. Quanto maior a especialização do domínio, mais eficientes são feitos os ajustes, portanto, menos possibilidades precisam ser testadas. O sucesso pode então ser alcançado mais rapidamente.
Eles demonstram este processo com um exemplo caseiro: cozinhar panquecas. O primeiro caso envolve ajustar os horários em que as panquecas foram preparadas de um lado e do outro. Uma panqueca inicial foi cozida por dois tempos aleatórios e foi então provada. Com base no gosto, os tempos foram ajustados para a segunda iteração. Este processo foi repetido até que o gosto de uma panqueca conhecesse algum limiar de qualidade. Para casos futuros, foram adicionadas variáveis adicionais, como a quantidade de leite usada na massa, o ajuste de temperatura e a quantidade adicionada de sal. Se a cada variável foi atribuído um valor entre 1 e 10, como temperaturas possíveis no fogão, o número de tentativas possíveis aumentou em um fator de 10 para cada nova variável. O número de possibilidades cresce muito rapidamente.
Para várias variáveis, se o provador não tivesse conhecimento de cozinhar, o tempo necessário para encontrar um resultado adequado provavelmente seria proibitivamente longo. No entanto, com maior conhecimento, melhores escolhas poderiam ser feitas para reduzir o número de pesquisas necessárias. Por exemplo, um cozinheiro experiente (isto é, um cozinheiro com maior conhecimento de domínio) saberia que o tempo em ambos os lados deveria ser mais ou menos o mesmo, panquecas muito finas exigem farinha adicional e etc.
Este exemplo segue a abordagem básica para pesquisas comuns de design evolucionário. A principal diferença é que vários testes podem ser simulados em um computador ao mesmo tempo. Então, cada indivíduo pode ser testado e alterado de forma independente. Os componentes de cada ciclo incluem uma função de aptidão (aka oracle) para definir o status de um indivíduo (por exemplo, gosto da panqueca), um método para determinar quais indivíduos são removidos e quais permanecem ou são duplicados, e como os indivíduos são alterados por a próxima iteração (por exemplo, mais leite). Os autores fornecem vários exemplos de como esses algoritmos evolutivos podem ser aplicados a diferentes problemas. Um dos exemplos mais interessantes que eles dão é como a NASA usou um algoritmo evolucionário para dobrar um pedaço de fio em uma antena efetiva de banda-X.
Desta forma, os autores demonstram as limitações dos algoritmos evolutivos. O desafio geral é que todos os algoritmos evolutivos são limitados a convergir em uma faixa muito estreita de resultados, um limite conhecido como Teto de Basener. Por exemplo, um programa projetado para produzir uma antena convergirá, na melhor das hipóteses, para a solução de uma antena ideal e permanecerá emperrado. Nunca poderia gerar algum resultado completamente diferente, como uma ratoeira. Alternativamente, um algoritmo projetado para gerar uma estratégia para jogar damas nunca poderia gerar uma estratégia para jogar gamão. Para alterar os resultados, o programa teria que ser ajustado deliberadamente para alcançar uma meta predeterminada separada. No contexto da evolução, nenhum processo não guiado poderia convergir em um organismo, como um peixe, e depois convergir para um anfíbio.
Este princípio foi demonstrado tanto em simulações como em experimentos. O programa Tierra foi criado na esperança de simular a evolução biológica em larga escala. Seus resultados foram decepcionantes. Vários organismos simulados surgiram, mas sua variabilidade logo atingiu o teto de Basener. Nenhuma verdadeira novidade foi gerada, mas apenas rearranjos limitados das informações inicialmente fornecidas. Temos visto um resultado semelhante em experimentos com bactérias pelo biólogo Richard Lenski, do estado de Michigan. Ele rastreou o desenvolvimento de 58.000 gerações de E. coli . Ele não viu nenhuma inovação verdadeira, mas principalmente a quebra de genes não essenciais para economizar energia, e o rearranjo da informação genética para acessar capacidades pré-existentes, como o metabolismo do citrato, sob diferentes estresses ambientais. As mudanças sempre foram estreitas no escopo e limitadas em magnitude.
Os autores apresentam uma limitação ainda mais definidora, baseada nos Teoremas da Inexistência do Almoço de Gratuito (no free lunch theorem), conhecido como Conservação da Informação (CdI). Simplesmente, nenhuma estratégia de busca pode, em média, encontrar um alvo mais rapidamente do que uma busca aleatória, a menos que alguma informação sobre essa meta seja incorporada ao processo de busca. Como ilustração, imagine alguém lhe pedindo para adivinhar o nome de uma pessoa famosa, mas sem lhe dar nenhuma informação sobre esse indivíduo. Você pode usar muitas estratégias diferentes de adivinhação, como listar pessoas famosas que você conhece em ordem alfabética, ou por altura ou por data de nascimento. Nenhuma estratégia poderia ser determinada com antecedência como melhor que uma busca aleatória.
No entanto, se você pudesse fazer uma série de perguntas, as respostas forneceriam informações que poderiam ajudar a limitar ou orientar sua pesquisa. Por exemplo, se lhe dissessem que a pessoa famosa era contemporânea, isso reduziria drasticamente o seu espaço de pesquisa. Se você aprendesse que a pessoa era um ator, você teria ainda mais orientações sobre como adivinhar. Ou você pode saber que quem pergunta é um fã de ficção científica, e nesse caso você poderia concentrar suas adivinhações em pessoas associadas ao gênero de ficção científica.
Podemos entender o teorema de forma mais quantitativa. O tamanho do seu espaço de pesquisa inicial pode ser definido em termos da medida de informação de Shannon. Se você soubesse que uma das 32 pessoas famosas era o alvo, o espaço de busca corresponderia ao log2 de 32, que é 5 bits. Esse valor é conhecido como a informação endógena da pesquisa. A informação dada de antemão para auxiliar a busca é conhecida como informação ativa. Se você recebeu informações que eliminaram todas, exceto 1/4 das possíveis escolhas, você teria log2 de 4, que é 2 bits de informação ativa. A informação associada à localização do alvo no espaço de busca reduzido é então log2 de 32/4, que é de 3 bits. As informações relacionadas à pesquisa são conservadas: 5 bits (endógeno) = 2 bits (ativos) + 3 bits (espaço de pesquisa restante).
O teorema do CdI é válido para todas as pesquisas evolutivas. O programa da antena da NASA só funciona porque usa um método de busca que incorpora informações sobre antenas efetivas. Outros programas projetados para simular a evolução, como o Avida, também fornecem informações ativas necessárias para gerar os resultados desejados. Em contraste, a evolução biológica é dirigida pela seleção natural cega, que não possui informações ativas para auxiliar na busca de novos alvos. O processo não é auxiliado por mudanças no ambiente ou interações coevolutivas, que alteram o cenário de adequação, uma vez que tais mudanças não contêm informações ativas relacionadas a um resultado radicalmente diferente.
No final, a informação endógena associada à descoberta de um novo plano corporal ou outra modificação significativa é muito maior do que aquela associada ao espaço de busca que a descendência biológica poderia explorar em toda a idade do universo. Portanto, como esses autores mostram vigorosamente, de acordo com muitas pesquisas anteriores no campo do Design Inteligente, todas as inovações radicais na natureza exigiam informações de alguma fonte inteligente externa.
Original: Brian Miller. Evolutionary Informatics: Marks, Dembski, and Ewert Demonstrate the Limits of Darwinism. May 2, 2017
Os proponentes da “evolução das espécies” usam a efetividade dos algoritmos evolucionários como uma prova matemática/informática da sua validade. O problema com essa associação é que ela justamente prova o contrário: só um programador (mente inteligente) pode definir um mecanismo para geração de formas complexas a partir daquelas mais simples. Ou o algoritmo evolucionário surgiu aleatoriamente com auxílio da alguma seleção? É decepcionante a utilização equivocada dos resultados por aqueles que se dizem cientistas…