quinta-feira, 27 de dezembro de 2007

O Problema do Enquadramento e Outros Pontos de Contacto entre Filosofia e IA

A convergência entre a Filosofia e a Inteligência Artificial foi um dos meus principais temas de pesquisa neste ano que está agora acabar. Encontrei no Problema do Enquadramento (Frame Problem) um ponto de contacto privilegiado para fazer o cruzamento das várias problemáticas transversais às duas áreas, apontando, assim, um dos caminhos a serem percorridos pela filosofia deste século. Durante os próximos anos, iremos de certeza testemunhar os avanços das investigações em IA e o filósofo terá todo o interesse em segui-los de perto, de modo a decidir, de forma intelectualmente honesta, acerca de um intercâmbio que se pode revelar frutífero.

Sugestões de leitura:

Dennett, D., “Brainstorms: Philosophical Essays on Mind and Psychology” Bradford Books, 1978
Dennett, D. e Hofstadter, D. (org), "The Mind's I: fantasies and reflections on self and soul", London, Penguin Books, 1982
Dennett, Daniel, "Brainchildren - Essays on Designing Minds", London, Penguin Books, 1998
Dennett, Daniel, "Tipos de Mentes", Lisboa, Temas e Debates, 2001
Fodor, Jerry, "The Modularity of Mind: an essay on faculty psichology, Cambridge, MIT Press, Bradford Books, 1983
Ford, Kenneth M e Phylyshyn, Zenon W. (Eds.), The Robot’s Dilemma Revisited – The frame problem in artificial intelligence, New Jersey, Ablex, 1996
Searle, John, "Mente e Cérebro e Ciência", Lisboa, Edições 70, 1987

(Relembro mais uma vez que as notas de rodapé foram suprimidas.)

A divulgação dos meus textos neste blog não é mais do que uma forma de divulgar os meus interesses no âmbito da Filosofia, de modo a suscitar discussões com outros internautas interessados. Devem dirigir as vossas críticas, sugestões e argumentos para anamonteiro(at)kanguru.pt
Obrigada.

"1. Introdução
“O que torna possível uma coisa física extrair conhecimentos do mundo e explorá-los de modo a levar a cabo uma acção com sucesso?” - É uma questão com a qual os filósofos se ocupam há gerações, mas que pode também ser tomada como uma questão definidora da IA.
Questões tais como “o que é a mente?”, “o que é significar?”, “o que é o raciocínio e a racionalidade?”, “quais são as condições necessárias para reconhecer objectos na percepção?”, “O que são decisões justificadas?”, povoam não só os livros de filosofia como estão na base daquilo que é investigado em IA. Mas será que este parentesco no tipo de questões colocadas nos permite afirmar em uníssono com Dennett que a IA é, “em larga medida filosofia”?
Alguns filósofos apreciam e tiram partido destes aspectos de similitude com a IA, mas, na sua generalidade, não se mostram receptivos a este campo de investigação e, frequentemente, mesmo depois de o estudarem, concluem que este nada de novo tem para oferecer aos filósofos, para além da repetição de erros já anteriormente cometidos pela sua disciplina .
Neste trabalho, proponho-me a analisar, de forma sucinta mas clara, os diferentes pontos de cruzamento entre a filosofia e a IA, desde a legitimação filosófica da mesma até à sua recusa por filósofos como H. Dreyfus.
Centrar-me-ei, sobretudo, numa contribuição que o trabalho realizado no âmbito da IA pode trazer para o domínio filosófico, nomeadamente, o frame problem ou problema do enquadramento (que, aliás, tem servido tanto aos defensores como aos detractores da IA). Isto porque o considero uma situação privilegiada para a análise das interacções entre os dois campos visados neste trabalho.
Vou procurar esclarecer duas posições relativas ao problema, uma que o vê como uma verdadeira e nova questão epistemológica – a de Dennett; outra que parece identificá-lo com os próprios limites daquilo que podemos saber acerca da cognição/mente – a de Fodor.
Para tal, tornou-se necessário fazer algumas incursões pelo pensamento dennettiano, especialmente no que é relativo a uma teoria transversal da cognição, apoiada numa horizontalidade de tipos de mentes e numa estratégia centralista, à qual não é alheia uma perspectiva funcionalista acerca das relações corpo/mente. Igualmente, pareceu-me pertinente desenhar em linhas gerais aquilo que é a tese da modularidade e seus pressupostos, em Fodor, de forma a entender-se quais os limites que traça para o problema do enquadramento.

2. Filosofia e IA: pontos de contacto. Teste de Turing. Hubert Dreyfus e a crítica fenomenológica. O Argumento do Quarto Chinês.

Uma estreita relação com os avanços das investigações em IA é um dos factores que tem levado ao desenvolvimento da Filosofia da Mente contemporânea. Contudo, os filósofos sonham com a IA há séculos; Leibniz e Hobbes, de formas diferentes, tentaram explorar as implicações de reduzir a actividade mental a um conjunto de operações mecânicas. Descartes, no apogeu do seu mecanicismo, chega a antecipar não só a possibilidade como as consequências do Teste de Turing. Apesar deste interesse de longa data, há algo que os filósofos humanistas consideram repugnante à razão, ou somente a um certo sentido estético, e que corresponde a uma certa visão da mente que a aproxima de uma engenharia (nada tendo a ver, portanto, com o desprezo simples pelo materialismo ou pela ciência) como Dennett nota em “When Philosophers Encounter IA ”.
O velho fascínio dos filósofos não é coincidência. Dennett chama-nos a atenção para o facto de as questões da filosofia e da IA serem igualmente abstractas e gerais. Investigadores da IA e filósofos assemelham-se, na medida em que procuram responder à questão epistemológica acerca da possibilidade da cognição. Na opinião deste filósofo da mente, embora as questões da IA sejam menos abrangentes, podem ser experimentadas e, por essa via, refutadas, uma vez que são traduzíveis pela criação efectiva de sistemas e arquitecturas cognitivas (a IA é também uma engenharia de programas e de máquinas). Sob este ângulo, este tipo de experiências apresenta uma vantagem relativamente às experiências mentais que se dão em filosofia; as últimas não são reais e em tudo dependem da imaginação daquilo que pode acontecer sob determinadas circunstâncias e de uma relação de expectativa perante uma “audiência” e as suas intuições. As experiências em IA, para além de serem experiências puras sobre o mental possível, são um caminho muito mais rápido para o estudo da cognição , na medida em que é uma investigação directa que se faz “do topo para a base”, “é mais fácil deduzir competências comportamentais de arquitecturas que se desenhou do que elaborar hipóteses, da base para o topo acerca do interior de caixas negras naturais cujo comportamento se observa.”
Uma primeira tentativa de responder à questão “podem as máquinas pensar?” foi dada pelo Teste de Turing apresentado no artigo “Computing, Machinery and Intelligence” publicado na revista Mind em 1950. O teste é tido como um argumento na defesa do computacionalismo clássico e responde positivamente à possibilidade teórica de um computador finito, com uma vasta mas finita tábua de instruções ou programas, responder a questões de tal forma que possa ludibriar um interrogador anónimo quanto à sua natureza. Alan Turing identifica pensamentos com estados de um sistema definido somente pelas suas regras que lhe permitem produzir outros estados e outputs verbais, uma ideia que aliás muito em comum com as actuais teorias funcionalistas . Se o computador passar o teste de Turing, quer dizer que os estados cognitivos humanos podem ser replicados por computadores.

(...)

Outro filósofo crítico da IA no seu sentido forte é John Searle, autor da experiência mental do Quarto Chinês , no qual identifica os processos mentais com processos semânticos que, por sua vez, liga à consciência. O argumento do Quarto Chinês constitui uma refutação do Teste de Turing e do computacionalismo clássico, no sentido em que defende a existência de uma diferença biológica essencial na mente humana que corresponde à consciência e que torna inviável toda a tentativa de redução do mental. No âmbito do seu “materialismo não-reducionista” (como o próprio o chama), a consciência é uma propriedade física do cérebro, a sua subjectividade ontológica e o facto de não a conseguirmos descrever em 3ª pessoa, impede-a de ser equiparada a qualquer outra propriedade física.

Resumindo, o que Argumento do Quarto Chinês pretende fazer passar é que estando a consciência ligada à semântica, não podemos falar em processos mentais sintácticos sem falar em semântica . Searle está interessado em demonstrar que um sistema sem semântica tem uma intencionalidade atribuída e não uma intencionalidade intrínseca. É acerca desta distinção, meramente intuitiva, que se posicionam negativamente a maior parte das críticas dirigidas ao Quarto Chinês.

(...)

3. Dennett e uma teoria transversal da cognição: Funcionalismo. Teoria dos sistemas intencionais. Fim da barreira entre o natural e o artificial e horizontalidade no tipo de mentes.
O funcionalismo é uma teoria filosófica que surgiu como resposta ao problema mente/corpo. A partir dos anos 60, autores como Hilary Putnam, Jerry Fodor e Daniel Dennett argumentavam que as propriedades psicológicas são multiplamente realizáveis (multiply realizable).
Uma imagem exemplificativa do que é um funcionalismo é perguntar o que têm em comum as armadilhas de ratos (podem ser de madeira e queijo, de metal e veneno ou podem ser um simples cesto de papéis invertido). São todas feitas de matéria, é certo. Mas que propriedades únicas têm? Se as armadilhas de ratos são multiplamente realizáveis (multiply realizable), então não há uma propriedade física que todas as armadilhas possuam. Cada armadilha é um objecto físico, mas a propriedade de ser uma armadilha não é uma propriedade física. Da mesma forma que há várias formas de construir uma armadilha para ratos, segundo os funcionalistas, há muitas formas físicas para “construir” uma mente . ( O significaria que o software não é redutível ao hardware.)
Assim, o funcionalismo é uma doutrina que defende que o que faz de algo um estado mental não depende da sua constituição interna, mas está na maneira como funciona ou no papel que representa no sistema do qual faz parte.
Dennett parte do ponto de vista funcionalista de que não existe diferença substancial entre a inteligência natural, humana ou animal, e a inteligência dita artificial.
Baseado no que H. Simon, um dos fundadores da IA, escreve em 1969 em “The Sciences of the Artificial”, o filósofo da mente acredita que natural e artificial são apenas dois pontos de vista que não se opõem. Ainda segundo Simon, as ciências do artificial estão numa mesma linha de continuidade das ciências da natureza, sendo que a única diferença se prende com a presença de teleologia, a existência de finalidades no comportamento global de sistemas (admitindo que as considerações teleológicas são estranhas às ciências naturais). Tudo o que é artificial, na medida em que susceptível de uma explicação física, é também natural . Esta indistinção entre o natural e o artificial redunda na horizontalidade dos vários tipos de mentes, devendo todas ser analisadas numa mesma teoria do mental.

(...)
A Teoria dos Sistemas Intencionais de Dennett é uma teoria normativa ou transcendental da mente, isto é, uma perspectiva segundo a qual os objectos são inteligíveis através de um acordo, um compromisso a priori quanto àquilo que podem ser. Teoria unicamente válida mediante uma estratégia Intencional e da suposição de que a racionalidade é constitutiva do mental enquanto tal. (no início, Dennett chama-a de abordagem centralista).
A TSI é uma teoria quiniana da interpretação de sistemas físicas supondo a racionalidade. Teoria fisicalista, funcionalista e instrumentalista acerca do mental.
A perspectiva intencional é uma estratégia para interpretar o comportamento de uma entidade (pessoa, animal, artefacto, seja o que for), tratando-a como se fosse um agente racional que pautasse a sua escolha ou acção pela consideração das suas convicções e desejos, isto é, tratar a entidade como um agente, com vista a prever e, como tal, explicar, num certo sentido, as suas acções e movimentos. É uma estratégia que adoptamos no nosso dia-a-dia, nas nossas relações mútuas e que parece corresponder a uma antropomorfização deliberada. Ao atribuir crenças e desejos particulares ao agente, baseados na sua percepção da situação e nos seus objectivos ou necessidades, acreditamos ser agora capazes de explicar e de prever as suas acções.
Um exemplo bastante elucidativo daquilo que é a adopção da estratégia intencional é o exemplo de um computador tornado num jogador de xadrez , através da implementação do programa adequado. Esse programa obedece a uma estratégia simples de interpretação: o jogador (ou computador), o agente quer ganhar e conhece as regras do jogo, assim como a distribuição das diferentes peças no tabuleiro. Prevemos a jogada do computador como se fosse um agente racional. A perspectiva intencional funciona, quer os objectivos sejam genuínos, naturais ou realmente tidos em conta pelo agente ou não.

(...)

4. Problema do Enquadramento. Origem. Perspectivas interna e externa.
Em 1969, quando foi identificado por John McCarthy (inventor do termo IA) e Paul Hayes, o problema do enquadramento começou por ser um problema técnico dentro da IA; um problema de como criar (design) uma representação em linguagem lógica de eventos e um algoritmo-inferência associado a esta, de modo a que um sistema inteligente e autónomo, como um robô, pudesse, como consequência de levar a cabo a acção A, inferir todas e só as mudanças associadas a A.
O problema originalmente era então uma tarefa para os investigadores em IA que procuravam desenvolver modelos de raciocínio numa linguagem de representação lógica com algoritmos associados. Um exemplo: se um robô pega num objecto, um copo, digamos, e o desloca de um ponto para outro, então, deve ter inferido que a sua “mão” estava ocupada e que a sua “mão”, “braço” e copo estavam a mudar de posição relativamente ao seu centro de gravidade. Mas o robô não necessita de inferir que nem o copo nem o quarto mudaram de cor nem que a sua mão continua com o mesmo número de dedos depois de deslocar o copo. Posto assim, o problema do enquadramento é uma questão que diz respeito ao bloqueamento de um vasto número de inferências acerca do que não mudou (ou que não constitui um efeito) como resultado de uma dada acção.

De acordo com Eric Dietrich e Chris Fields , há duas formas de abordar o problema do enquadramento, de uma perspectiva externa e de uma perspectiva interna. A perspectiva externa (fora da máquina) concebe-o como um problema que diz respeito ao designer de um sistema de IA, como o de McCarthy e Hayes. O designer é alguém que tem que desenvolver, como foi acima referido, uma linguagem de representação lógica apropriada e algoritmos associados a um sistema autónomo e inteligente.
Para uma perspectiva interna (de dentro da máquina), o frame problem é um problema do próprio sistema, é uma questão de como um sistema deve correcta e eficientemente rever as suas crenças quando realiza uma tarefa (levar a cabo uma acção ou resolver algum problema) ou analisa algum input. Tanto Dennett como Fodor assumem o problema na sua inflexão interna.

5. Perspectiva interna – reformulação filosófica do problema do enquadramento – Dennett e o problema humeano da indução
O frame problem teve origem num problema técnico na IA lógica, mas foi adoptado por alguns filósofos da mente que lhe deram uma interpretação mais abrangente. A tensão entre a origem nos laboratórios de IA e o seu tratamento pelos filósofos originou um interessante e frutífero debate.
A primeira referência significativa ao problema do enquadramento na literatura filosófica foi feita por Dennett, segundo este, a questão é saber de que modo “uma criatura cognitiva com um conjunto de crenças acerca do mundo pode actualizar essas crenças, quando leva a cabo uma acção, de modo a que estas permaneçam fieis ao mundo?” Jerry Fodor, no âmbito da sua tese acerca da modularidade da mente, pergunta como “o programa de uma máquina determina que crenças o robô tem que reavaliar uma vez embarcado num dado curso de acção”.

(...)

Ainda no mesmo artigo, o problema do enquadramento é apresentado como um problema epistemológico novo, fácil de notar, no entanto, “ignorado por gerações de filósofos”. É um problema que os humanos naturalmente resolvem, com uma solução “good enough for government work”. Na verdade, para Dennett, o que define um ser inteligente é o bom uso que damos aos nosso conhecimentos para melhorar as nossas expectativas acerca do que irá acontecer a seguir, para planear, para considerar diferentes cursos de acção, para enquadrar mais hipóteses com o objectivo de aumentar os conhecimentos que usaremos no futuro. Um ser inteligente aprende da experiência e usa o que aprendeu para fazer expectativas relativamente ao futuro. Hume explicou isso em termos de hábitos de expectativas no futuro, através do associativismo. Na perspectiva de Dennett, Hume não viu o problema porque operava num nível puramente semântico ou fenomenológico, onde todos os itens são individuados e ganham diferentes relevâncias, no quadro das nossas crenças, pelos seus significados.
Segundo Dennett, a IA é responsável pela descoberta deste problema que, embora apresente algumas semelhanças, é diferente do problema humeano da indução.

5.1. O problema do enquadramento e a tese da modularidade de Fodor. Teoria Representacional Computacional da mente. O problema do enquadramento como expressão dos limites daquilo que podemos saber acerca da cognição.

A tese da modularidade deste discípulo de Putnam é a hipótese filosófica de que a mente humana compreende uma série de módulos informacionalmente encapsulados ou faculdades verticais inatas (informationally encapsulated), juntamente com um processador central ( não-encapsulado). Os módulos são os mecanismos de inputs perceptivos, responsáveis pela audição, visão, gosto, etc... Recebem a informação do mundo exterior e processam-na e eventualmente transferem-na para o processador central. Há um ou mais módulos por faculdade perceptiva. Aquilo que compreendemos da mente é aquilo que se passa ao nível modular. Os limites da modularidade são os limites daquilo que posso compreender acerca da mente.
O processador central, como não está encapsulado informacionalmente, tem acesso a tudo o que o sistema sabe, é holístico. É, portanto, capaz de lidar com vários tipos de informação, assim como com vastas quantidades da mesma. A tarefa central deste processador é a fixação de crenças, ele integra toda a informação que passa pelos vários módulos, e “propõe” novas crenças ou hipóteses baseadas na informação integrada, procede a tentativas para confirmar as hipóteses e actualizar as crenças guardadas no sistema quando a hipótese é confirmada.

(...)

Uma vez que já sabemos que a fixação de crenças é equivalente à confirmação científica de hipóteses e que nós fixamos crenças e confirmamos hipóteses científicas regularmente e com alguma facilidade, segue-se que a forma do processador central operar incorpora uma solução para o frame problem ( o mesmo é dizer que a confirmação científica de hipóteses incorpora a solução para o problema). Assim sendo, perceber como o trabalho de confirmação em ciência se processa e desenvolver uma teoria cognitiva do modo como as crenças são fixadas; ambas requerem saber como se resolve o problema do enquadramento. (desenvolvimento circular). Embora estejamos na posse da chave para resolução do problema, não o fazemos. (os limites da modularidade são os limites do meu entendimento acerca da mente).

(...)

Fodor usa o problema do enquadramento para reforçar a ideia de que os processos mentais centrais - que estão envolvidos na fixação de crenças – são não-encapsulados, o que quer dizer que podem desenhar informação vinda de qualquer fonte.
Este resultado pode satisfazer alguns investigadores. Desenvolver uma teoria superior da cognição só requer perceber como os cérebros resolvem os seus problemas de enquadramento. Este filósofo da mente discorda, ao defender que o modo como os cérebros resolvem este problema vai iludir-nos até que tenhamos uma teoria global da computação, isto é, uma teoria de como um processador pode ser isotrópico e quiniano. Até agora, somos ignorantes no que diz respeito a este tipo de computação. O nosso processador central aproxima-se da racionalidade ideal de alguma forma, mas como o faz permanecerá por muito tempo um grande mistério.

Sem comentários: