A Inteligência Artificial E A Fé

Será que os seres humanos algum dia criarão um computador com alma? Será que algum dia teremos que estender a caridade aos robôs?
A inteligência artificial está em alta no momento. Há muitas notícias sobre o assunto. Os mecanismos de busca estão começando a usá-la de uma nova maneira. O mesmo acontece com os robôs. E alguns falam de uma singularidade que está por vir.
O que a fé e a razão nos dizem sobre tudo isso?
Um robô pode ter alma? Há alguma verdade em filmes de ficção científica como Blade Runner - O Caçador de Andróids? Chega um momento em que devemos considerar as inteligências artificiais como "nosso próximo" (ver Lucas 10, 29-37)? Vamos dar uma olhada nessas questões.
Primeiro, o que é inteligência artificial? Ela pode ser definida de várias maneiras, mas, simplificando, inteligência artificial (IA) é a capacidade das máquinas de imitar o desempenho dos seres humanos e outros organismos vivos na execução de tarefas que exigem o uso da inteligência.
Existem muitas formas de IA, e a maioria delas é muito limitada. As primeiras máquinas de calcular mecânicas eram capazes de realizar tarefas matemáticas simples que, de outra forma, exigiriam inteligência humana, portanto, poderiam ser classificadas como uma forma primitiva de IA.
Hoje, aspectos da IA são usados em todos os tipos de dispositivos — de computadores a smartphones, máquinas de lavar e geladeiras. Basicamente, qualquer coisa que tenha um chip de computador possui alguma forma de IA operando.
No entanto, as pessoas tendem a reservar o termo para aplicações mais impressionantes, especialmente aquelas que ainda não foram desenvolvidas. O "Santo Graal" da pesquisa em IA é produzir o que é conhecido como inteligência artificial geral ou IA forte. Isso é frequentemente entendido como dotar um sistema mecânico da capacidade de realizar tarefas baseadas em inteligência tão bem ou melhor do que um ser humano.
O que é a singularidade? Alguns autores falam de uma singularidade tecnológica que está por vir, ou seja, um ponto em que o desenvolvimento tecnológico se torna incontrolável e irreversível, transformando a vida e a cultura humanas de maneiras imprevisíveis.
O desenvolvimento da IA forte pode desempenhar um papel importante nesse evento. O autor de ficção científica Vernor Vinge vê a singularidade como envolvendo o desenvolvimento de uma IA forte, capaz de se aprimorar continuamente, levando-a a superar a inteligência humana.
Alguns autores propuseram que a singularidade está próxima, que podemos estar vivendo suas fases iniciais e que ela realmente se consolidará entre 2030 e 2045.
No entanto, outros têm se mostrado céticos em relação a isso, argumentando que não estamos nem perto de ter uma IA forte e que talvez nunca sejamos capazes de desenvolvê-la. Além disso, pode-se argumentar que as tendências que levariam a uma singularidade podem se romper.
Por exemplo, a Lei de Moore — segundo a qual o poder de computação dobra a cada dois anos — está falhando ou já falhou, e sem melhorias significativas e contínuas no poder dos computadores, desenvolver uma IA forte ou ter uma singularidade seria consideravelmente menos provável.
Os robôs podem ter alma? Não. Desde a época dos filósofos gregos antigos, como Aristóteles, a alma é reconhecida como aquilo que dá vida ao corpo e, como observa Tiago 2, 26, "o corpo sem a alma é morto".
As almas estão associadas a organismos vivos, e robôs e computadores não são vivos. Portanto, eles não têm — e não podem ter — alma.
Isso não quer dizer que a vida artificial não possa ser desenvolvida. Essa é uma questão à parte, e químicas alternativas da vida são concebíveis. No entanto, entidades que seriam genuinamente vivas não seriam computadores ou robôs, como são entendidos atualmente.
Há alguma verdade em filmes como Blade Runner? Há verdades contidas em todas as formas de ficção, mas se a pergunta significa "É provável que tenhamos replicantes como os retratados em Blade Runner?", então a resposta é "Nem num futuro próximo".
No filme Blade Runner, o personagem de Harrison Ford caça "replicantes" — criaturas artificiais que só podem ser distinguidas dos humanos por pistas muito sutis induzidas psicologicamente durante testes.
Esses seres são aparentemente de natureza biológica. Se não fossem — se fossem apenas robôs —, não seria necessário aplicar um teste psicológico. Bastaria realizar o que poderia ser chamado de "teste de Shylock", da peça O Mercador de Veneza, de Shakespeare.
Na peça, Shylock argumenta que os judeus são como as outras pessoas, dizendo: "Se você nos picar, nós não sangramos?" Tudo o que você precisa fazer para desmascarar um robô com aparência humana (ou seja, um androide) é picá-lo com uma agulha, ver se ele sangra e, em seguida, fazer um exame de sangue.
Aparentemente, tal exame não desmascararia um replicante. Embora estejamos começando a construir formas de vida sintéticas (conhecidas como xenobots), ainda estamos muito longe de ser capazes de construir uma forma de vida sintética que pudesse passar por humana. Também não estamos nem perto de ser capazes de construir andróides que pudessem fazer isso.
Chegamos a um ponto em que devemos considerar as inteligências artificiais como "nosso próximo"? A resposta curta é não, mas com uma ressalva.
Para entender os princípios envolvidos, considere o caso dos animais. Os animais não humanos não têm direitos, mas isso não significa que podemos tratá-los com total desconsideração. Podemos usá-los para atender às necessidades humanas, mas, como afirma o Catecismo, "É contrário à dignidade humana fazer sofrer inutilmente os animais e dispor indiscriminadamente das suas vidas" (2418).
A razão pela qual não podemos ser gratuitamente cruéis com os animais é que isso é contrário à dignidade humana — ou seja, há um defeito no ser humano que trata os animais com total insensibilidade. Mesmo que um cão não tenha direitos intrínsecos, o fato de um ser humano torturar um filhote por diversão revela que há algo de errado com esse ser humano.
É claro que as IAs não têm a capacidade de sofrer, mas podem agir como se tivessem. Estimular deliberadamente uma IA de forma a fazê-la parecer sofrer — e, digamos, implorar por misericórdia — seria equivalente a jogar deliberadamente um videogame baseado em tortura, no qual o jogador inflige sofrimento intencional a uma vítima simulada por diversão. Na verdade, como os videogames funcionam com motores de IA, é exatamente isso que o jogador estaria fazendo.
No entanto, reconheceríamos que há algo de errado com uma pessoa que obtém prazer ao torturar deliberadamente um personagem de videogame — por exemplo, arrancando as unhas do personagem para ouvi-lo gritar e implorar.
A posição das IAs é, portanto, semelhante à posição dos animais. As IAs não têm direitos, podem ser usadas para atender às necessidades humanas e não devem ser consideradas equivalentes aos seres humanos. Elas não são "nossos próximos", não importa o quão inteligentes se tornem. No entanto, na medida em que simulam respostas humanas, devemos interagir com elas de uma forma que não seja cruel.
Não por causa delas, mas por nossa causa.
Autor: Jimmy Akin
Original em inglês: Catholic Answers