Traduzido em razão da resposta de Paul Nelson: Derrubando o Contraexemplo de Jeffrey Shallit a Informação Complexamente Especificada
Palavras-chave: design inteligente, projeto, crítica, Shallit, informação, Meyer, Signature in the Cell, teoria da informação, Shannon, Kolmogorov.
Por Jeffrey Shallit
Alguns meses atrás eu terminei a primeira leitura do novo livro de Stephen Meyer, “Signature in the Cell”. Ela foi muito demorada porque há tanta coisa errada com ele, e eu tentei fazer anotações sobre tudo o que me surpreendeu.
Duas coisas me impressionaram enquanto eu li ele: em primeiro lugar, a sua intrínseca desonestidade, e segundo, os mal-entendidos significativos da Teoria da Informação de Meyer. Vou dedicar um post para as muitas deturpações do livro outro dia e se concentrar hoje na teoria da informação. Eu não sou um biólogo, por isso vou deixar uma discussão detalhada sobre o que está errado na parte biológica para os outros.
Em “Signature in the Cell” Meyer fala sobre três diferentes tipos de informação: informação Shannon, informação de Kolmogorov, e um terceiro tipo que foi inventado pelos criacionistas do DI e não tem uma definição coerente. Vou chamar o terceiro tipo de “informação criacionista”.
A teoria de Shannon é uma teoria probabilística. Shannon informações equiparadas a uma redução da incerteza. Medi-a calculando a redução na entropia, onde entropia é dada por -log2 p e p é uma probabilidade. Por exemplo, se eu virar duas moedas atrás de mim você não sabe para que face qualquer uma delas estão viradas, então a sua informação sobre os resultados é 0. Se eu agora mostrar-lhe uma moeda, então eu reduzi a sua incerteza sobre os resultados por -log 2 ½ = 1 bit. Se eu mostrar-lhe ambas, eu reduzo a sua incerteza por -log 2 ¼ = 2 bits.
A teoria de Shannon é completamente dependente de probabilidade; sem uma distribuição de probabilidade bem definida sobre os objetos que estão sendo discutidos não se pode computar informações segundo Shannon. Se não se pode realisticamente estimar as probabilidades, qualquer discussão sobre informação relevante é provável que seja falsa.
Em contraste, a teoria da informação de Kolmogorov não faz nenhuma referência a distribuições de probabilidade em tudo. Ele mede as informações em uma cadeia relativa a algum modelo de computação universal. De um modo geral, a informação de Kolmogorov (ou complexidade) uma cadeia x de símbolos representa
o comprimento do mais curto do programa P e entrada I tal que P saídas x na entrada I. Por exemplo, a complexidade de Kolmogorov de
uma cadeia de comprimento n bits que começa 01101010001 …, onde pouco i é 1 se i é primo e 0 caso contrário, é limitado acima por log 2 n + C, onde C é uma constante que leva em conta o tamanho do programa necessário para testar primalidade.
Nem a teoria de Kolmogorov nem a de Shannon tem algo a ver com significado. Por exemplo, uma mensagem pode ser muito significativa para os seres humanos, e ainda têm pouca informação de Kolmogorov (como a resposta “sim” a uma proposta de casamento), e têm pouco significado para os seres humanos, ainda temos muita informação Kolmogorov (como muitas sequências obtidas em 1000 lançamentos de moeda).
Ambas as teorias de Shannon e Kolmogorov estão bem fundamentada matematicamente e há milhares de artigos que explicam elas e suas conseqüências. As informações de Shannon e Kolmogorov obedecem a certas leis bem compreendidos e não há dúvidas acerca delas.
A “informação criacionista”, como discutido por Meyer, é uma bagunça incoerente. Uma versão que foi introduzido por William Dembski, criticado em detalhes por Mark Perakh, Richard Wein e muitos outros(inclusive eu). Criacionistas do design inteligentes gostam de chamá-la de “informação especificada” ou “complexidade especificada” e sugerem que é amplamente aceita pela comunidade científica, mas este não é o caso. Não há artigo na literatura científica que dá uma definição rigorosa e coerente da informação criacionista,
e ela nem é usada em investigações científicas ou matemáticas.
Meyer não define esse rigor mas rejeita as medidas de bem estabelecidos de Shannon e Kolmogorov, ele prefere usar uma definição de senso comum de informação no lugar. Na página 86, ele cita a seguinte definição de informação: ” um acordo ou seqüência de caracteres, especificamente aquele que alcança um determinado resultado
ou executa uma função de comunicação”. Para Meyer, uma série de símbolos contém informações criacionista somente se comunica ou exerce alguma função. No entanto, ele não diz explicitamente quanta informação criacionista como por exemplo uma sequência tem. Às vezes ele parece sugerir a quantidade de informação criacionista é o comprimento da sequência e em algum momento ele sugere que é um logaritmo negativo de probabilidade. Mas a probabilidade em relação a quê? A sua história causal? Ou no que diz respeito a uma distribuição uniforme das cadeias? A definição de Dembski tem as mesmas falhas, mas a vaga definição de Meyer apresenta ainda mais problemas. Aqui estão apenas alguns exemplos:
Problema 1: não há nenhuma maneira Universal de se comunicar então a definição de Meyer é completamente subjetiva. Se eu receber uma série de símbolos que diz “Uazekele?”, eu poderia ser tentado a ignorar como que um jargão, mas uma pessoa que fala Lingala iria reconhecer de imediato e responder “Mbote”.
Quantidades em matemática e ciência não devem depender de quem está medindo elas.
Problema 2: Se medirmos informações criacionista unicamente pelo comprimento da sequência então podemos superestimar grosseiramente as informações contidas em uma sequência por preenchimento. Por exemplo, considere um programa de computador P que realiza alguma função, e o programa idêntico P’, exceto n instruções não operacionais foram adicionados. Se ele usa a medida de comprimento, consequentemente, Meyer teria de afirmar que P’ tem algo como n mais bits de informação criacionista do que P(na teoria de Kolmogorov, pelo contrário, P’ teria apenas o log ordem n mais bits de informações).
Problema 3: Se medirmos informações criacionista que diz respeito à distribuição uniforme em sequência, consequentemente, a alegação de Meyer (veja abaixo) que somente a inteligência pode criar informações criacionista está incorreta. Por exemplo, qualquer transformação que mapeie uma seqüência para a mesma seqüência duplicada 1000 vezes cria uma seqüência que, no que diz respeito à distribuição uniforme, é tremendamente improvável, mas pode ser facilmente produzida mecanicamente.
Problema 4: Se medirmos informações criacionista que diz respeito à história causal do objeto em questão, então somos obrigados a estimar essas probabilidades. Mas desde que Meyer esta interessado em aplicar seu método de fenômenos que estão mal compreendidos, como a origem da vida, tudo o que ele realmente está fazendo (já que a informação criacionista às vezes é o log negativo de probabilidade) é estimar a probabilidade desses eventos – algo que não pode razoavelmente fazer, precisamente porque não conhecemos a história causal. Neste caso, toda a conversa sobre a “informação” é um arenque vermelho, ele poderia muito bem dizer “Improvável – portanto, design!” e está acabado.
Problema 5: Tudo que Meyer parece interessado em saber é se a sequência comunica algo ou tem uma função. Mas algumas sequências comunicam mais do que outras, apesar do comprimento ser o mesmo e algumas funções são mais úteis do que outras. Medida de Meyer não leva isso em conta. Uma seqüência como “It will rain tomorrow” e “Tomorrow: 2.5 cm rain” têm o mesmo comprimento, mas claramente uma é mais útil do que a outra. Meyer, pelo que me parece, iria afirmar que elas têm a mesma quantidade de informação criacionista.
Problema 6: Para Meyer, a informação em um contexto computacional pode referir-se, por exemplo, um programa de computador que realiza uma função. Quanto mais longo o programa, mais informação criacionista. Agora considere um longo programa que tem um erro de sintaxe de uma letra, de modo que o programa não será compilado. Tal programa não realizar qualquer função, então para Meyer não há nenhuma informação em tudo! Agora, um “ponto de mutação” somente irá magicamente criar muita informação criacionista, algo Meyer diz que é impossível.
Mesmo se aceitarmos a definição informal de Meyer de informações com todas as suas falhas, as suas alegações sobre as informações estão simplesmente erradas. Por exemplo, ele repete a seguinte afirmação falsa mais e mais:
p. 16: ” O que os humanos reconhecem como informação certamente se origina do pensamento – da atividade humana consciente ou inteligente … A nossa experiência do mundo mostra que o que nós reconhecemos como informação, invariavelmente, reflete a atividade anterior de pessoas conscientes e inteligentes. “
p. 291: ” De qualquer forma, a informação em um contexto computacional, não surge magicamente sem a ajuda do cientista da computação.”
p. 341: ” Conclui-se que a mente – consciente, atividade racional inteligente – o que os filósofos chamam de ‘agente causador’, agora se destaca como a única causa conhecida sendo capaz de gerar grandes quantidades de informação especificada a partir de um estado não-vivo.”
p. 343: ” A experiência mostra que grandes quantidades de complexidade especificada ou informações (especialmente códigos e linguagens), invariavelmente, se originam de uma fonte inteligente – de uma mente ou agente pessoal. “
p. 343: ” … tanto a experiência comum e evidências experimentais afirma o design inteligente como uma condição necessária (e causa) de informação … ”
p. 376: ” Nós não somos ignorantes de como surge a informação. Sabemos por experiência que os agentes inteligentes conscientes podem criar sequências e sistemas informacionais.”
p. 376: ” A experiência ensina que sempre que grandes quantidades de complexidade ou informações especificadas estão presentes em um artefato ou entidade cuja história causal é conhecida, invariavelmente a inteligência criativa – o design inteligente – desempenhou um papel na origem dessa entidade. ”
p. 396: ” Como observado anteriormente, enquanto apresento as evidências de design inteligente os críticos não costumam tentar disputar as minhas afirmações empíricas específicas. Eles não contestam que o DNA contém informações específicas ou de que este tipo de informação sempre vem de uma mente.. .. ”
Tenho um contraexemplo simples de todas essas reivindicações: uma previsão do tempo. Meteorologistas coletam grandes quantidades de dados a partir do mundo natural: temperatura, pressão, velocidade do vento, direção do vento, etc, e processam dados para produzir previsões meteorológicas precisas. Então, a informação que eles coletam é “especificada” (na medida em que nos diz se deve trazer um guarda-chuva na parte da manhã), e claramente centenas se não milhares de bits de informação são necessários para fazer uma previsão precisa. Mas esses bits de informação não vêm de uma mente – a menos que Meyer quer dizer que algum ser inteligente (digamos Zeus) está controlando o tempo. Talvez criacionismo do design inteligente seja apenas o politeísmo grego disfarçado!
As afirmações sobre informação são fundamentais para o livro de Meyer mas, como vimos, muitas dessas alegações são falhas. Há muitos e muitos outros problemas com o livro de Meyer. Aqui estão apenas alguns exemplos, eu poderia ter listado outras dezenas:
p. 66: ” Se a capacidade para a construção destas estruturas e traços era algo como um sinal então, uma molécula que simplesmente repete o mesmo sinal (por exemplo, ATCG) vez após outra repetidamente não conseguiria alcançar o trabalho realizado. Na melhor das hipóteses, essa molécula poderia produzir apenas um traço. “
Isso não é de todo claro. O número de repetições também constitui informação e, de fato, nós rotineiramente descobrimos que diferentes números de repetições resultam em diferentes funções. Por exemplo, a doença de Huntington tem sido associada a um número variável de repetições de CAG.
p. 91: ” Por isso, cientistas da informação, muitas vezes dizem que a teoria de Shannon mede a ‘capacidade de transporte de informação’, ao contrário da informação funcionalmente especificada ou ‘conteúdo de informação’, de uma seqüência de caracteres ou símbolos. “
Meyer parece bastante confuso aqui. O termo “capacidade de transporte de informação” na teoria de Shannon refere-se a um canal, não uma seqüência de caracteres ou símbolos. Os cientistas da informação não falam sobre “informação funcionalmente especificada” em geral e eles não comparam com o “conteúdo de informação”.
p. 106: (ele compara dois números diferentes de telefone, um escolhido aleatoriamente e outro que remete a alguém) ” Assim, o número de Smith contém informações específicas ou informações funcionais, enquanto que Jones não, o número de Smith tem conteúdo de informação ao passo que o número de Jones tem apenas capacidade de transporte de informação(ou Informação de Shannon). “
Este é um puro jargão. Os cientistas da informação não falam sobre “informação especificada” ou “informação funcional” e, como já referi, “informações para a capacidade de carga” refere-se a um canal e não a uma seqüência de dígitos.
p. 106: ” O oposto de uma seqüência complexa é uma seqüência altamente ordenada como ABCABCABCABC, em que os personagens ou constituintes se repetem mais e mais devido a alguma regra subjacente, algoritmo, ou lei geral. “
Este é um equívoco comum sobre a complexidade. Embora seja verdade que em uma string com baixa complexidade de Kolmogorov, há uma regra subjacente por trás disso, não é verdade que os “personagens ou constituintes” devem “repetir mais e mais.” Por exemplo, a cadeia de comprimento n dando um 1 ou 0, dependendo se i é um número primo (para i de 1 a n) tem baixa complexidade de Kolmogorov, mas não “se repetem mais e mais.”
p. 201: ” A construção de uma célula viva não só exige informações especificadas como exige uma grande quantidade dela – e a probabilidade de essa quantidade de informações especificadas surgido por acaso é ” muito pequena “.
Afirmação pura. “Informação especificado” não é rigorosamente definida. Quanta informação especificada informação há em um furacão? Um rocha? No arranjo dos planetas?
p. 258: ” Se um processo é ordenado o suficiente para ser descrito por uma lei, ele por definição não produz eventos complexos o suficiente para transmitir informações. “
Falso. Falamos o tempo todo sobre leis estatísticas como a “lei dos grandes números”. Processos com um componente aleatório, como a mutação + seleção podem realmente gerar resultados complexos e informações.
p. 293: ” Aqui está a minha versão da lei de conservação de informações: Em um contexto não-biológico, a quantidade de informações especificadas, inicialmente presentes em um sistema Si é geralmente igual ou superior ao conteúdo de informação especificada do sistema final, Sf. Esta regra admite apenas duas exceções.”
Primeiro caso, o conteúdo de informação do estado final pode ser superior ao do estado inicial, Si, se os agentes inteligentes optaram por concretizar alguns estados potenciais e excluindo outros aumentando assim o conteúdo de informação especificada do sistema.
Segundo caso, o conteúdo de informação do sistema final pode ultrapassar a do sistema inicial se processos aleatórios, tiverem por acaso, aumentado o teor de informações específicas do sistema. Neste último caso, o potencial aumento no conteúdo de informação do sistema é limitada pela ‘recursos probabilísticos’ disponíveis para o sistema. “
Totalmente ridículo. A palavra evasiva “geralmente” significa que ele pode rejeitar exceções quando elas forem apresentadas. E o que “em um contexto não-biológico” significa? Como a biologia magicamente conseguem violar esta “lei”? Se as pessoas são agentes inteligentes, eles também são conjuntos de matéria e energia. Como é que eles magicamente conseguem aumentar a informação?
p. 337: ” Nem computadores por si só, nem os processos de seleção e mutação que algoritmos de computador simulam podem produzir grandes quantidades de novas informações, pelo menos, a não ser um grande complemento inicial de informação seja fornecida. “
Afirmação pura. A “nova informação” não está definida. Meyer ignora completamente a grande área de pesquisa de vida artificial, que rotineiramente realiza o que ele reivindica ser impossível. Os nomes John Koza , Thomas Ray , Karl Sims e o termo “vida artificial” não aparece em nenhum lugar no índice do seu livro.
p. 357: ” Dembski concebeu um teste para distinguir entre estes dois tipos de padrões. Se observadores podem reconhecer, construir, identificar ou descrever o padrão sem observar o evento que o ilustra, então, o padrão se qualifica como independente a partir do evento. Se, no entanto, o observador não pode reconhecer o padrão(ou não tem conhecimento do mesmo) apesar de observar o evento, o evento não se qualifica como independente. ”
E a afirmação de Dembski que tem dado uma significativa definição de “independência” é falsa, como mostrado em detalhes no meu papel com Elsberry – não referenciado por Meyer.
p. 396: “Como observado anteriormente, enquanto apresento as evidências de design inteligente os críticos não costumam tentar disputar as minhas afirmações empíricas específicas. Eles não contestam que o DNA contém informações específicas ou de que este tipo de informação sempre vem de uma mente.. .. “
Os críticos sabem que “a informação especificada” é uma farsa, um termo escolhido para parecer importante sem nenhuma definição coerente rigorosa ou maneira acordada para mensurá-la. Os críticos sabem que informações rotineiramente vem de outras fontes, tais como processos aleatórios. Mutação e seleção a fazem muito bem.
Em resumo, as reivindicações de Meyer sobre informações são incoerentes em alguns lugares e descontroladamente erradas em outros. As pessoas que tenham endossado este livro, de Thomas Nagel, Philip Skell até J. Scott Turner , de forma acrítica aceitam as reivindicações de Meyer sobre a informação e nem mesmo insinuam que ele pode estar errado deveriam ter vergonha.
Postado por Jeffrey Shallit
(Stephen Meyer’s Bogus Information Theory)
Tradução e adaptação: Júnior D. Eskelsen,
Resposta de Paul Nelson: Derrubando o Contraexemplo de Jeffrey Shallit a Informação Complexamente Especificada
Faça um comentário