Em 1951, Alan Turing propôs um “Jogo da Imitação” para testar a capacidade de “inteligência artificial” das máquinas. O jogo original era conduzido com duas pessoas de sexos diferentes em quartos separados e uma terceira pessoa, chamada “juiz” em um terceiro cômodo. Esses três cômodos estariam conectados por equipamento com tela e teclado somente para trocarem mensagens. A tarefa do juiz seria descobrir qual das duas pessoas é homem. O homem tentaria oferecer evidências limitadas às mensagens (nenhuma pista do mundo físico pode ser usada, nem voz). A mulher, ao contrário, tentaria enganar o juiz.
E onde entra a Inteligência Artificial nisso? Turing propôs que, ao invés de um homem e uma mulher como competidores, o teste fosse realizado entre humanos e máquinas. E agora o trabalho do juiz seria decidir qual dos competidores é humano e qual é a máquina. Se a probabilidade de escolher entre os dois competidores fosse igual, então a simulação da máquina seria considerada “inteligente”. Desde então o “Teste de Turing” ganhou várias versões e não é considerado muito importante para o campo de Inteligência Artificial.
A Máquina é Design, não Inteligência
O ponto interessante é que a máquina é design, reproduz o comportamento inteligente “instanciado”, isso é, que foi “programado”, e ocorre exatamente da forma que uma inteligência genuína faria, mas nada além disso. Como percebeu o único laureado com um Nobel nascido no Brasil, Peter Medawar, os sistemas matemáticos e computacionais estão limitados a produzir consequências lógicas a partir de um dado conjunto de axiomas ou pontos de partida e, portanto, não podem criar novas informações (todos os efeitos já estão implícitos nas informações iniciais). O que isso significa?
Isso significa que em um sistema computacional clássico todo o desdobramento, todo o desenrolar de ações e reações, deve estar presente de alguma forma desde o início. Esta noção tem sido cultivada dentro do Design Inteligente como princípio de Conservação da Informação. Isso é drasticamente diferente da inteligência genuína, que possui como uma de suas características principais a criatividade.
Essas diferenças entre o comportamento mecânico e o comportamento inteligente desvelam algo menos sutil: a diferença entre ambos e os comportamentos fisicodinâmicos. Essas diferenças, entre os padrões espontâneos na natureza e os formados por inteligência, são um pressuposto fundamental e, portanto, parte integrante da investigação do Design Inteligente.
Em um próximo texto, uma utilidade para o Teste de Turing.
Eyal Reingold and Johnathan Nightingale. Artificial Intelligence Tutorial Review. The Turing Test: Alan Turing and the Imitation Game. 1999.
Sou analista de sistemas, achei o texto muito interessante, porém há uma parte dele que acho que precisa de uma revisão:
“limitados a produzir consequências lógicas a partir de um dado conjunto de axiomas ou pontos de partida e, portanto, não podem criar novas informações”
Na verdade, um sistema computacional pode, sim, produzir novas informações: é possível utilizar algoritmos de aprendizado de máquina (redes neurais, por exemplo), que será usado como informação para suporte à decisões. O que acho que seria mais correto dizer é que um computador pode produzir novas informações, porém até para isso é necessário que ele seja programado para tal por meio dos algoritmos supracitados.
Boa observação, Celso!
Como esta parte do artigo foi baseada no pensamento do Dembski, e ele faz distinção entre a informação funcional e outras informações, ele provavelmente está fazendo distinção entre as informações “ativas” do sistema (conjunto de axiomas ou pontos de partida) e informação não relevante. Uma rede neural é excelente pra classificação e aprendizado, e aí nós levamos em conta informações externas ao sistema sendo absorvidas do ambiente para atuar sobre o próprio ambiente, não para o desdobramento do esquema funcional interno. Os desdobramentos permanecerão os mesmos. Agora, se considerarmos esse “mapeamento” do ambiente informação para o sistema, então realmente “um computador pode produzir novas informações … [sendo] programado para tal por meio dos algoritmos supracitados”.
Este é um tema muito profícuo e instigante, se quiser escrever algo para o Portal TDI+, esteja certo que será considerado.
Grato pela interação.
Eskelsen
Entendo que o autor quis dizer é que fora do seu ambiente de definição, os algoritmos “não podem criar novas informações”. Por exemplo, se um algoritmo lida com números naturais, logo, se ele produzir uma saída no conjunto dos números reais, então a lógica implementada está equivocada.
Outro exemplo são as redes neurais de aprendizado profundo que criam rostos artificias. Elas não criam “nova informação”, mas sim um novo arranjo, uma sobreposição das informações existentes em seus parâmetros ajustados. Logo, se a rede foi treinada com padrões de rostos e demais texturas que se encontram nestas imagens, não é possível que a rede gere uma imagem de algo que ela nunca viu antes, na sua fase de treinamento.
É mais ou menos isso, mas há ainda um caráter “prescritivo”, isso é, a informação nova é “passiva” (pra usar termos populares e em contraposição à informação ativa). A prescrição (não fume, vire à esquerda, faça isso, não faça aquilo) é o coração das funções e da utilidade algorítmica. As informações de aprendizado por redes neurais (a maioria de classificação) serão usadas no máximo como “brocas para uma furadeira” já existente, não uma nova ferramenta para o sistema.
O David L Abel fala muito sobre isso e carregou um pequeno texto sobre informação prescritiva. Eu ainda não conferi, mas li muito os trabalhos dele entre 2013 e 2016. Na época li a prescrição na forma de dados e na forma algorítmica em Dichotomy in the definition of prescriptive information suggests both prescribed data and prescribed algorithms: biosemiotics applications in genomic systems (acessar).
É tanta coisa e são tantas as possibilidades que é impossível encerrar qualquer questão sobre isso nos dias de hoje e nem nas próximas décadas.