Esta premissa é explorada na narrativa que se desenvolve ao longo da série, explorando exaustivamente a tecnologia para lá da ação, e onde verificamos a anulação das esferas das consequências, das ações e da moralidade através da exploração dos limites nas interações entre humanos (Convidados) vs. androides (Anfitriões).
Mas mais fundamental, esta série reintroduz-nos a questão de fundo da inteligência artificial, a saber, se serão as máquinas capazes de pensar, de ter consciência, e, inevitavelmente, como definir “máquina” por um lado, e “pensamento” por outro lado.
PUB
Anuncie no Notícias do Nordeste! Contacte-nos!
Consulte a tabela de preços
Há, contudo, objeções à noção de inteligência artificial definida pela superação do TT que devem ser tidas em conta, nomeadamente, o argumento descrito por John Searle em Minds, brains, and programs sobre a intencionalidade nos seres humanos e animais (através da sintaxe e semântica), através da experiência de pensamento da Sala Chinesa. Nesta experiência de pensamento, Searle defende que um programa de computador, por si só, não é capaz de estados mentais genuínos.
A ideia da Sala Chinesa é a seguinte: se eu estiver fechada numa sala com caixas que têm caracteres chineses e tiver um livro em português que descreve o programa para falar chinês, quando um nativo em chinês fora da sala me enviar perguntas (por debaixo da porta), apenas conseguirei consultar o livro que descreve o programa para falar chinês e enviar alguns caracteres como resposta que julgo ser apropriada a esse nativo (sendo a conclusão de Searle que, por mais que possa programar um computador, se ele não entende chinês não pode simular esse conhecimento).
PUB
Anuncie no Notícias do Nordeste! Contacte-nos!
Consulte a tabela de preços
Esta simplificação serve de mote para pensar que um sistema, descrito desta maneira, não pode aprender sobre o seu próprio sistema, e o cruzamento de dados talvez não deva ser confundido, em si mesmo, com o processo de aprendizagem. Além, também, de nos levar a pensar sobre se a capacidade de imitar as respostas humanas é, de facto, um sinal de inteligência (na variação de estados intencionais semânticos de Searle), ou se estamos apenas num jogo de imitação? E esta questão enquadra a questão fundamental: um robot é capaz de fazer escolhas éticas, ou é programado – dentro de um padrão moral específico – para responder em concordância com esse mesmo padrão?
Lia Raquel Neves (Cientista Social)
Conteúdo fornecido por Ciência na Imprensa Regional – Ciência Viva