Os robôs e a ética

         Os robôs atuais ainda estão tecnologicamente longe dos robôs que vemos na ficção científica e os problemas éticos decorrentes da interação do homem com as máquinas são, hoje, ainda muito pequenos se comparados com os de um mundo povoado por robôs inteligentes capazes de tomar decisões de forma autônoma.

         Não é surpreendente, portanto, que os primeiros a lidar com o problema da ética no convívio com os robôs tenham sido os autores de ficção científica. Em 1942, o escritor Isaac Asimov criou as três leis da robótica que passaram a constar de todas as suas histórias e romances sobre robôs. Para quem não está familiarizado com essas leis, aqui vão elas: 1) o robô não pode causar nenhum mal a qualquer ser humano ou, por omissão, deixar que algum mal lhe aconteça; 2) o robô deve sempre obedecer às ordens do ser humano, a menos que isso entre em conflito com a primeira lei; e 3) o robô deve proteger a si próprio, a menos que isso entre em conflito com qualquer das duas primeiras leis.

         Entretanto, com o desenvolvimento recente da robótica, alguns países e instituições internacionais já estão começando a tratar seriamente desse problema. Por exemplo, a Coréia do Sul, que tem um avançado programa tecnológico em robótica, já trabalha em uma Carta, “The Robot Ethics Charter”, para estabelecer as regras básicas para a interação dos humanos com os robôs. Ela deverá servir de guia para construtores e usuários de robôs no trato de questões sociais como o controle humano sobre os robôs e a sua possível dependência deles, e questões legais como a proteção de informações coletadas pelos robôs e a identificação e rastreabilidade das máquinas.

         O tema da ética já é uma constante nos congressos e simpósios sobre robótica e dois cientistas, em especial, são freqüentemente convidados para discuti-lo nesses eventos: Noel Sharkey, professor da Universidade de Sheffield, UK, e Ronald Arkin, diretor do Mobile Robot Lab e diretor de pesquisa da Georgia Tech, nos EUA. O site www.robotspodcast.com entrevistou esses dois especialistas, em 2009, para divulgar suas opiniões sobre este assunto, e as entrevistas (em inglês) estão disponíveis nos endereços mencionados no final deste texto. A seguir, um breve resumo das principais questões éticas levantadas por esses dois especialistas.

         A questão da ética está sempre presente quando o ser humano interage com novas invenções e o robô é um exemplo delas. Entretanto, no caso de robôs com capacidade de tomar decisões autônomas, esse problema se amplifica. A robótica com fins militares é a área que tem suscitado mais atenção no que diz respeito às questões éticas. Um robô instruído para matar um combatente inimigo não tem muita diferença de uma metralhadora, mas a questão se complica quando se dá conta que o robô pode matar um civil por engano. O ser humano também pode cometer esse engano e sabemos que isso tem acontecido com frequência nas batalhas recentes. O robô pode minimizar esses enganos? A resposta não é simples, pois, se por um lado, um robô não é afetado pelo estado de tensão que acomete os humanos nos momentos críticos, por outro lado, o seu poder de discriminar entre civis e militares pode ser mais limitado do que o do homem que, afinal de contas, é quem elabora os procedimentos que os robôs devem seguir. E sabemos que um procedimento dessa natureza é muito complexo.

         A robótica na área médica tem também seus problemas éticos. Qualquer dispositivo artificial – por exemplo, próteses – que venha a ser acoplado ao organismo humano e que tenha por finalidade elevar o seu desempenho acima da média da população pode levantar questões éticas. Seria correto dar a oportunidade a pessoas de mais recursos financeiros ter acesso a esses dispositivos, criando uma classe de seres mais capacitados? Lembre-se que a prótese de pernas já provocou polêmica em competições de velocidade pois dava vantagem ao seu usuário em relação ao corredor comum.

         Os robôs que, no futuro, darão assistência a doentes e idosos certamente serão também objeto de discussão. Se as tarefas de alimentação, medicação, higiene e outros cuidados para com os idosos puderem ser feitos por robôs, os filhos poderão se desobrigar a acompanhar seus pais idosos e, em casos extremos, privá-los completamente do relacionamento pessoal. De um modo geral, o relacionamento de humanos, quer sejam crianças, adultos ou idosos, com robôs trará impactos sobre nossa privacidade e comportamento social, visto que somos facilmente induzidos a considerar como humano qualquer dispositivo que demonstre os mínimos sinais de sentimentos.

         Por último, teme-se que os robôs venham a tirar os empregos das pessoas. Esta parece ser a questão menos preocupante porque a história mostra que a introdução de avanços tecnológicos no passado resultou sempre em aumento na quantidade de empregos e, principalmente, na melhoria da qualidade dos empregos. No jargão da robótica, os robôs devem ficar com os serviços chamados de DDD (dirty, dangerous, dull – sujos, perigosos, monótonos).

         A pergunta final a ser respondida é: a quem atribuir a culpa quando um robô fizer algo errado? Ao projetista, ao fabricante, ao usuário, às instituições reguladoras? Certamente não ao robô. Enfim, as questões acima deverão ser objeto de muitas discussões pela sociedade, que pode adotar a sugestão de um cientista da área, segundo a qual um bom começo para construir robôs éticos é garantir que os seus projetistas sejam pessoas éticas.

         Ouçam a íntegra das entrevistas nos endereços:

www.robotspodcast.com/podcast/2009/02/robots-robot-ethics-part-1-html/

www.robotspodcast.com/podcast/2009/02/robots-robot-ethics-part-2-html/

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s