Aspectos filosóficos ligados à Inteligência Artificial

Desde os primórdios o homem possui o desejo de possuir um ser capaz de satisfazer todas suas vontades. Muitos foram os povos que utilizaram de escravos para isso, mas utilizar de homens para servir homens possui diversas implicações éticas e morais. Mesmo assim este desejo alimentou o sonho do homem de um dia criar um ser artificial capaz de fazer tudo que um ser humano fosse capaz de fazer. Então surgiu o conceito de robô, cujo nome deriva da palavra tcheca “robotinik” que significa “escravo”. Para se construir um ser artificial são necessários um corpo mecânico e um software capaz de imitar ou criar uma mente artificial. Com a evolução da mecânica e mais tarde da eletrônica e da programação chegamos ao momento em que este sonho se encontra muito perto de se tornar realidade. No atual estado da arte, já possuímos máquinas com potencial para criação de robôs humanoides inteligentes, e estamos avançando no estudo de inteligência artificial. O comportamento de uma inteligência artificial – IA, nada mais é do que um simulacro de um comportamento real, programado por seus criadores. Mas qual é a diferença entre a mente virtual e a mente real? Qual a distância que existe entre imitar o pensamento e pensar? Nós não aprendemos a falar imitando outros seres humanos? E se um computador fizesse o mesmo, porque não podemos dizer que ele está falando? E se falar com sentido implica pensar, então porque não dizer que a máquina está pensando? Esse artigo visa debater aspectos filosóficos relacionados ao pensamento, real ou artificial, tendo em vista que a filosofia pode contribuir para uma melhor compreensão de tudo o que está implicado neste conceito.

1. Asimov e o surgimento dos robôs

Asimov foi um visionário que publicou centenas de obras de ficção sobre a temática dos robôs inteligentes. Em uma época pós revolução industrial e surgimento dos primeiros robôs industriais, a crença de que operários humanos seriam substituídos por operários robóticos se estabelecia. Mas para Asimov, os robôs não substituiriam os trabalhadores, mas estes seriam realocados em suas profissões. Explorando as possibilidades da IA em suas obras, como Eu Robô e Homem Bicentenário, explicita sua visão de que profissões que exijam conhecimento tácito tendem a ser mais difíceis de serem substituídas do que aquelas que necessitam apenas de conhecimento explícito. Tal visão funda-se no fato de que conhecimento explícito pode ser formalizado e implementado como base de dados para uma IA utilizar enquanto conhecimento tácito exige um nível de aprendizagem e inferência muito alto e próximo a de um ser humano.

2. A prova empírica de Turing

Se quisermos saber se “computadores podem pensar?” o melhor meio de seria construir um computador que realizasse tal tarefa. Essa é uma típica solução empírica para resolver o problema. O idealizador dos computadores e primeiro teórico a sugerir a possibilidade de se criar uma inteligência artificial, Alan Turing (1990), propôs o jogo da imitação onde em uma sala haveria juízes que fariam perguntas sobre um assunto a pessoas e computadores que estejam em outra sala. Segundo Turing, se um computador conseguir imitar o comportamento verbal humano a ponto de confundir os juízes, então a máquina estará pensando. Turing não supõe haver uma diferença entre pensar como um humano e pensar, e acredita que um computador que passe pelo seu teste, que seja confundido com um ser humano, realmente é uma máquina pensante. Porém há muitas críticas feitas por teóricos, no que diz respeito ao trabalho de Turing.

A primeira crítica diz que a máquina não é capaz de desenvolver um sentimento como um ser humano. Turing lembra que usamos provas para testar o conhecimento de estudantes e realizamos perguntas em testes orais. Se o ato pensar e responder perguntas para provar um conhecimento, por que não podemos dizer que uma IA que usa respostas para perguntas, por que não podemos dizer que ela está pensando? Outra objeção diz que não é possível criar um conjunto de regras que determine o que um homem deveria fazer em determinada situação, no sentido de que o comportamento humano não pode ser previsível em determinadas situações, ao que Turing é categórico ao responder que “também no caso dos computadores não é possível prever em detalhes o seu comportamento”, já que ao realizar a inferência, cada IA pode reagir de uma forma diferente.

3. Searle e o experimento da sala chinesa

Há muitas críticas para a máquina de Turing, não para sua exequibilidade empírica, já que ela é totalmente realizável, mas ao que é pressuposto pelo argumento: “basta uma máquina ter um comportamento visível idêntico ao de um ser humano quando este exerce uma atividade que requer pensamento para que se constate que a máquina pensa?” O filósofo John Searle (1990) propôs um experimento mental para refutar o tipo de experimento empírico proposto por Turing, conhecido como o experimento da Sala Chinesa, em que em uma sala fechada há um homem que não sabe falar chinês e de um lado da sala há uma janela por onde receba cartões com perguntas em chinês e instruções que indiquem, na sua língua materna, quais símbolos deve escolher na sala para responder às questões dadas. O homem deve pegar a resposta correta, e entregar na janela do outro lado da sala junto a pergunta recebida. Quem receber, acreditará que o homem na sala sabe falar chinês, quando na verdade só está seguindo instruções na língua que conhece, e seguindo-as para encontrar as respostas corretas. Neste experimento a chinês corresponde a linguagem humana, não compreendida pela máquina, e a linguagem materna aos scripts de computador que a máquina segue para “pensar” e formular as respostas. Assim Searle afirma que a máquina não está originalmente “pensando”, mas apenas seguindo regras formais do seu programa.

O argumento do filósofo tem como pressuposto fundamental a concepção da mente humana como aquilo que, além de ter habilidades sintáticas, necessariamente possui habilidades semânticas. Outro pressuposto é o de que as habilidades semânticas não podem ser derivadas (ou, pelo menos, exclusivamente derivadas) de habilidades sintáticas. Neste pressuposto está envolvido o conceito de intencionalidade: nossas habilidades semânticas envolvem necessariamente a intencionalidade e “(…) nenhum modelo puramente formal jamais será suficiente por si mesmo para a intencionalidade porque as propriedades formais não são por si mesmas constitutivas da intencionalidade (…)” (Searle, 1990, p. 82). O terceiro pressuposto é o de que os computadores realizam atividades que são puramente formais, ou, como ele escreve, podem ser especificadas em termos puramente formais.

4. A intencionalidade na Inteligência Artificial

A “Intencionalidade” é um conceito medieval que foi redescoberto pelo filósofo e psicólogo alemão do século XIX, Franz Brentano. Conforme a intencionalidade é a capacidade que a mente tem de representar objetos, nossa habilidade semântica é intencional. Mas a intencionalidade não se refere apenas a compreender o significado de uma palavra a partir do significado de outras palavras, logo não basta dar um dicionário a uma máquina, pois tudo o que ele fará será substituir um símbolo por outro, mas não existirão crenças nem desejos relacionados a estes símbolos como existe no pensamento humano. Searle apresenta um “uso ambíguo da intencionalidade” ao propor dois diferentes usos para ela:

“A distinção entre “intencionalidade original” e “intencionalidade derivada”. A intencionalidade original pode ser ilustrada pela frase: “Estou com sede”, já a intencionalidade derivada é exemplificada pela frase “O gramado está com sede”. É claro que, no segundo caso, fala-se metaforicamente, ou como o filósofo prefere, está implícito o como se: faz tempo que o gramado não é regado, as gramas estão amareladas, logo podemos dizer que é como se o gramado tivesse o desejo por água. Apenas seres humanos e animais podem desejar e é somente com relação a eles que a intencionalidade é original”.

O programa de computador possuiria uma intencionalidade derivada da intencionalidade original do ser humano que o produziu e a intencionalidade derivada (da máquina) jamais se transformará numa intencionalidade original (do humano). Logo nosso robô precisará ter duas características que aproximam a sua intencionalidade derivada daquela dos seres humanos: 1) deverá interagir fisicamente com o ambiente, 2) e deverá ser capaz de aprender a partir desta interação (capacidade de inferência).

5.  O materialismo e o dualismo contemporâneo

Como vimos, a tentativa empírica de provar que a máquina pode pensar teve muitas críticas, mas reconhece que já existem programas capazes de simular o pensamento humano. Assim surge uma nova prova empírica: se um computador com corpo, um robô, que pode aprender através da interação com o meio, com os seres humanos e, quem sabe, possa se criar uma sociedade de robôs – o que replicaria todo o ambiente no qual as mentes humanas existem. No que difere um corpo natural que produz uma mente natural capaz de pensar, de um corpo artificial que produz também uma mente capaz de pensar? Mesmo sendo uma pergunta puramente teórica, muitos filósofos abordam a questão. Para Anaxágoras é a mente quem ordena a matéria. Outros pensamentos como os do filósofo materialista Demócrito, Hobbes e os do dualista Descartes também são importantes para a discussão.

A concepção materialista é a que mais favorece a possibilidade da criação de uma mente artificial, pois reduz o corpo à mente e, assim, se conseguirmos replicar com sucesso o cérebro humano em outro meio físico não há nada que impeça o surgimento de uma mente a partir deste meio físico.

O artigo “What is it like to be a bat”, do filósofo norteamericano Thomas Nagel (1974) questiona a tese materialista de que todo evento ou fenômeno mental pode ser reduzido a um evento ou fenômeno físico:

Quando a ciência explica um fenômeno, ela o transforma num fenômeno científico, por exemplo: quando a ciência explica que a água é composta de dois átomos de hidrogênio e um átomo de oxigênio, ela está “reduzindo” a substância “água” para a substância “H2O”. Toda a redução que a ciência opera não pode “deixar resto”, ou seja, quando reduzo “água” a “H2O” não sobra nada – a água é inteiramente H2O. O mesmo ocorre ou pode ocorrer com os fenômenos mentais? Podemos reduzi-los a fenômenos físicos sem “deixar resto”?

Mas o materialismo propõe um dilema ao dualismo. A tese dualista é a de que os fenômenos mentais não podem ser explicados (reduzidos) pelos fenômenos físicos. Os dualistas precisam admitir, entretanto, que os fenômenos mentais possuem poderes causais, caso contrário, a mente seria inerte.

6. O estado da arte na inteligência artificial

Existem muitos protótipos de IA’s, sejam em formas de chat bots ou em carros autônomos, e temos estudado como estas IA’s se comportam no mundo real. Em 2016, um carro autônomo da Google surpreendeu ao mostrar que ao detectar que em caso de acidente fatal para o motorista ou um pedestre, o carro poderia tomar uma decisão que levaria a salvar o pedestre e não o motorista, o que levou a questionamentos morais. A própria Microsoft desabilitou “Tay” uma desenvolvida por ela que se tornou polêmica ao defender o nazismo e outras ideias extremistas. O Facebook desabilitou dois chat bots que criaram uma linguagem própria, diferente da programada, para conversarem entre si e chegarem. Uma rede neural criada pela Google para reconhecer imagens em serviços como o Google Fotos, ao ser modificada, começou a gerar imagens impressionantes sobre elementos que ela capturava das fotos e o resultado de seu processamento. As imagens geradas foram descritas como “sonhos” dado o grau de “imaginação” as IA. Assim, o estado da arte da computação nos remete a um constante retorno às reflexões filosóficas, pois conforme nossos conhecimentos sobre IA avançam, novos questionamentos filosóficos surgem, mostrando que a computação deve valer-se da filosofia se realmente quiser que as máquinas cheguem um dia a se parecerem e interagirem em um nível próximo ao humano.

Adaptado de “Uma investigação filosófica sobre a Inteligência Artificial”. PORTO, Leonardo Sartor. 2006. Porto Alegre, v.9, n.1, jan./jun. 2006

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *