O Paradoxo de Braess e a Eficiência de Pareto (Restrições Dominantes)

Download PDF
Tempo de leitura: 4 min.
Complexo viário de Makkasan, Bangkok / ©

É comum pensarmos que basta aumentar os recursos para algum fim que aumentaremos também a sua capacidade ou a sua produção. Trânsito congestionado? Bastam vias adicionais e tudo estará resolvido. Aumentar a produção? Basta aumentar o volume de insumos e pronto. Mas o mundo real seria assim? Bom, conforme as variáveis aumentam, o problema de “eficiência” se torna escabroso e nada linear.

Seja na computação, biologia, engenharia, economia ou qualquer ciência/técnica que trabalhe com alocação e utilização de recursos, temos a noção de ótimo (óptimo) para a eficiência máxima alcançável (melhor desempenho). É algo intuitivo que usamos todos os dias como, por exemplo, quando decidimos a ordem de lugares que vamos (para não se locomover mais que o necessário). Esta busca por “economia” é simples a princípio: para soluções individuais ou locais.

Sistemas complexos e Restrições Dominantes

A medida que os sistemas se tornam complexos a eficiência local (ou individual) passa a se distinguir da eficiência global. Para ilustrar, um time com os melhores jogadores pode não garantir superioridade contra um time que, apesar de não ter o melhor conjunto, alcança melhor eficiência global. Um bom conjunto de elementos pode anular um elemento ótimo, seja ele do time adversário ou do próprio time: a eficiência individual pode ser restringida pela dinâmica global em uma combinação de fatores difícil de ser descrita ou resolvida.

O conflito das soluções ótimas locais (individuais) e o todo (ótimo global) é de interesse de várias áreas do conhecimento. Um conceito relacionado é a Eficiência de Pareto: um estado ótimo em que é impossível melhorar a eficiência de um elemento do sistema sem prejudicar a de outro elemento.

Para se ter ideia da não obviedade das soluções, o Paradoxo de Braess, por exemplo, ilustra o caso onde se acrescentar uma via para descongestionar o trânsito piora a eficiência global. Isso é, apesar de alguma via extra ser adicionada, o congestionamento piora. Neste caso a eficiência é medida em tempo gasto no trânsito. Mas o que isso tem a ver com sistemas biológicos?

A opinião corrente em biologia credita à seleção natural e alguns outros mecanismos a origem do design biológico. A dinâmica seria predominante imediata: vantagem reprodutiva em um dado contexto. Na imaginação usada na formulação das hipóteses, a eficiência local sempre se sobrepõe ao ótimo global e a funcionalidade é aperfeiçoada enquanto a maioria das funções estão em “espera” (porque é impossível ajustar todas as funções de um sistema heterogêneo ao mesmo tempo). Então, se temos um olho, imaginamos um passo a passo contínuo de olhos ligeiramente mais eficientes ao longo de vastos períodos de tempo e espaço “pressionando” todas as outras eficiências do sistema.

O processo darwiniano provavelmente esgota os recursos probabilísticos do nosso Universo e é antiquado para responder a arquitetura da vida, além de alcançar um teto em seus desdobramentos (teto de Basener). As soluções de design, por outro lado, correspondem exatamente ao que vemos (Ewert). Todas essas coisas se tornam cada vez mais claras conforme o nosso conhecimento sobre a vida aumenta.

A ideia de que “as coisas vão acontecendo acidentalmente” e se encaixam é absolutamente irrealística. Não existe nada paralelo, nada assim em qualquer experiência repetida e uniforme na história da humanidade para organizações funcionais. Como afirma Behe: “Mudanças evolucionárias não direcionadas enfrentam múltiplas restrições dominantes”.



Junior Eskelsen
Sobre Junior Eskelsen 223 Articles
Responsável pelo portal tdibrasil.org e pela página Teoria do Design Inteligente no Facebook. Colabora com as atividades do movimento do Design Inteligente no Brasil.

2 Comentários

  1. Em matemática, na otimização de funções, um dos métodos mais empregados é denominado de gradiente descendente. O objetivo, basicamente, é obter os valores das variáveis independentes que fazem a função atingir um valor mínimo (ou máximo). Uma desvantagem deste método é que ele pode encontrar um mínimo local, e devido a sua abordagem, ele fica preso nessa solução e nunca consegue encontrar o mínimo global. Ou seja, ele não consegue de fato encontrar a solução ótima. Neste caso, não adianta aumentar os recursos computacionais, porque ele fica preso naquela solução.

    Para evitar o mínimo local, alguns algoritmos inicializam as variáveis com valores adequados a fim de facilitar a convergência para mínimos globais. Isso é visto como ante-evidência e só pode ser implementado por uma mente que conheça de antemão certas características da função a ser otimizada.

    Entendo que na natureza algo semelhante ocorra, pois há muito mais mínimos locais, que não são soluções tão boas, quando o mínimo global. Ou seja, é mais provável que um organismo evolua para uma arquitetura não-ótima, ou sub-ótima, e nunca mais consiga escapar daquela solução arquitetural, por mais recursos que ele possa utilizar.

    Por outro lado, se considerarmos o DI, de antemão o Designer prevê caminhos particulares e inicializa o organismo com os parâmetros adequados, a fim de que, somente micro-evoluções sejam necessárias quando a solução, por questões estocásticas, diverge ligeiramente da solução ótima global.

    • Exatamente, Bruno. Um texto que planejo postar em breve é sobre os “algoritmos gulosos” e a tendência que a vantagem imediata deles (ótimo local) gera em padrões estruturais contrastando com os padrões profundos dos sistemas biológicos.

Faça um comentário

Seu e-mail não será publicado.


*