Indagações robóticas

Preview:

Citation preview

  • C M Y KCMYK

    Tecnologia EEddiittoorraa:: Ana Paula Macedoanapaula.df@dabr.com.br3214-1195 3214-1172 / fax: 3214-115514 CORREIO BRAZILIENSE Braslia, segunda-feira, 19 de maio de 2014

    Indagaes robticasConsrcionorte-americano inicia projetoquebuscadarsmquinasa capacidadedefazer julgamentosmorais edecidir amelhor formadeagir nasmaisdiversas situaes

    ROBERTA MACHADO

    S e voc estivesse em um tremdescontrolado que fosse atro-pelar cinco pessoas, o que vocfaria? Tombaria o trem parasalv-las, colocando em risco a vidados passageiros? E se nos trilhos hou-vesse um desvio que pudesse salvar ascinco pessoas, mas colocasse outro in-divduo em risco? E se a soluo paraparar o trem fosse jogar um homem decima de uma ponte na frente do vecu-lo em alta velocidade? Questionamen-tos como esses so o suficiente paraesquentar a cabea de qualquer pes-soa, mas agora os cientistas querem iralm e submet-los a um novo tipo demente: a robtica.

    Um grupo de pesquisadores norte-americanos vai investir US$ 7,5 mi-lhes e cinco anos de trabalho paraajudar robs a tomar decises que svezes so complicadas at mesmo pa-ra pessoas de carne e osso. O consr-cio entre a Marinha dos EUA, do Insti-tuto Politcnico Rensselaer e das uni-versidades Tufts e Brown aceitou o de-safio de criar um senso de tica artifi-cial e ensinar mquinas a distinguir ocerto do errado. Os robs atuais somuito limitados na forma de julgar si-tuaes, especialmente quando se tra-ta de aspectos ticos. Em casos limita-dos, os robs podem evitar realizaraes que violariam os princpiosque eles seguem, mas essas mqui-nas no tm a habilidade de nenhumtipo de raciocnio moral, ressaltaMatthias Scheutz, professor de cin-cia da computao na Tufts e princi-pal pesquisador do projeto.

    O primeiro passo dessa jornada filo-sfico-robtica ser compreender me-lhor os valores que compem a moralhumana e determinar como explic-losna linguagem matemtica das mqui-nas. Parte do desafio est no desenvol-vimento de um cdigo moral adequadoaos valores de diferentes sociedades eem orientar as mquinas a identificar omomento certo de usar o bom senso. Atica est cheia de dilemas. Pensar quetemos respostas prontas que possamser pura e simplesmente transmitidaspara um rob algo filosoficamente in-gnuo, ressalta Joo de Fernandes Tei-xeira, professor de filosofia da mente ecincia cognitiva na Universidade Fe-deral de So Carlos (UFSCar).

    CompaixoUm dilema bvio est no campo de

    batalha. Os cientistas da Marinha nor-te-americana teriam de encontrar umasoluo para o mais bvio problematico ao criar robs militares capazesde colocar pessoas em risco e, ao mes-mo tempo, valorizar a vida de outros.Na opinio de Teixeira, a contradioda tica no existe sem as emoes hu-manas, que tambm teriam de sertransmitidas aos soldados de lata.Identificar intenes, crenas e dese-jos nos outros significa atribuir a elesuma mente e, com isso, poder imaginarcomo eles se sentem em vrias situa-es. Esse o primeiro passo para o de-senvolvimento da empatia e, com ela, acompaixo, que nada mais significa doque se sentir como os outros provavel-mente esto se sentindo em determi-nado momento, destaca o especialista.

    Por isso, a pesquisa vai partir de es-tudos com gente de verdade antes deseguir para a prancheta. Alm da filoso-fia, o trabalho multidisciplinar deve in-cluir especialistas da psicologia, dacincia da computao, do direito e darobtica. O grupo tambm deve contarcom a consultoria de especialistas dasuniversidades de Georgetown eYale.

    A ideia que as mquinas possamtomar decises que no esto previstasna sua programao, permitindo queelas operem com maior autonomia eeficincia em situaes dinmicas deinterao com humanos, como traba-lhar num hospital ou dirigir um auto-mvel funes que, alis, as mqui-nas j comearam a exercer h algumtempo sem o fardo da responsabilidademoral. Com robs cuidadores se tor-nando uma realidade e uma frota decarros autnomos prxima de estrearnas ruas, urgente que os crebros au-tomatizados estejam preparados paralidar com imprevistos.

    Os princpios morais dos robs ticossero integrados diretamente no siste-ma de controle do rob, impedindo queele decida deliberadamente agir de for-ma errada assim como as trs leis fic-cionais da robtica de Isaac Asimov. Ossistemas computacionais em que esta-mos trabalhando sero aptos a realizarum raciocnio moral relativamente so-fisticado em vrios tipos de lgicas for-mais, prev Matthias Scheutz.

    DinmicoQuo real, porm, pode ser o senso

    tico robtico? Poder uma mquinaque desconhece a dor ignorar sua dire-triz para se preocupar com um idosoem sofrimento fsico? Ou o que far umautomvel autnomo ao ter de esco-lher entre a vida de um pedestre e a deseu passageiro? Lus Moniz Pereira, daUniversidade de Nova Lisboa, em Por-tugal, criou um programa que conse-guiu lidar com o dilema do trem descri-to no incio da reportagem.

    No artigo, publicado no Internatio-nal Journal of Reasoning-based Intelli-gent Systems, o pesquisador mostracomo adaptou teses de filosofia moralpara combin-las a um programa delgica computacional. No escolhe-mos nenhuma moral especfica, antesdamos a possibilidade de programarmorais diversas e at de combin-las,explica. De acordo com o especialista,

    nunca ser possvel saber ao certo quetipo de circunstncias os robs voenfrentar, e a crescente autonomia da-da a eles exige esse tipo de pensamen-to dinmico.

    Tais criaturas autnomas, de fabri-cantes diferentes, evoluiro devido aprendizagem e vo interagir entre siem pequenos e grandes grupos. Estarotambm conosco, pelo que precisam deuma moral comum que propicie a coo-perao, prev o pesquisador, que vaiabordar o tema em seu prximo livro, Amquina iluminada. O cuidado, ressaltao especialista portugus, deve ser apli-cado a robs humanoides em sistemasmenos familiares, como programas detransaes financeiras ou outros queprecisem de uma garantia de funciona-mento completamente seguro.

    E esse no deve ser um trabalhosimples, j que o senso tico humanoevolui na velocidade da mudana deparadigmas morais e de coexistncia.Se o modelo jurdico de individualida-de mudar no mesmo ritmo, possvelat mesmo que as mquinas sejam res-ponsabilizadas por seus atos massem eximir a culpa do fabricante ou doproprietrio, dependendo do caso.Para alm da investigao da nossaprpria moralidade utilizando compu-tadores, importa muito, e desde j, in-vestigar as novas questes tico-jurdi-cas e o seu suporte filosfico, ressaltaMoniz Pereira.

    WendellWallach, pesquisador do Centro Interdisciplinar de Biotica da Universidade deYale e autor deMoralmachines: Teaching robots right fromwrong

    Qualoprimeiropassoaser tomadoparaacriaodeumamquinaeticamenteautnoma?

    Estamos criando sistemas com cadavez mais autonomia, ento teremosmais situaes que no podem ser pre-vistas pelos engenheiros.Valores j socolocados nos sistemas, mas para aespensadas com antecedncia pelo desig-ner.Oprximopasso chegar aoestgioem que haja vrias circunstncias sobreasquaisosengenheirosnopensaram,eo algoritmo possibilite mquina calcu-lar a formaapropriadade agir.

    Umamquinaseria capazde ter sentimentos?

    Humanos so criaturas que evolu-ram com um sistema emocional qumi-co e instintivo. Robs so sistemas cons-trudos com base em uma plataformalgica.Mas, de forma fascinante, hpes-quisas sobre se possvel criar algum ti-po de inteligncia emocional e afetiva,ou robs com conscincia ou capacida-de de deduzir as intenes e os desejosde outros. Algumas pessoas acreditamque teremos um dia mquinas comconscincia, outras dizemque issono

    possvel. Mas essa a ambiguidade e, doponto de vista filosfico, o fascnio dosrobs, que nos fazem pensar se somosdistintamente diferentes do que esta-mos criando ou se algumas capacidadespodem ser reproduzidas ou simuladasemumaplataforma robtica.

    Qual oprincipaldesafioparacriarmquinascomconscinciamoral?

    H dois grandes problemas. Em umnvel, escolherumprocedimento,outeo-ria tica, ou processo e implementar issoemumcomputador.Ooutroproblemaque s vezes nos referimos s coisas comnomes diferentes e h uma questo deperspectiva. Mas o ponto que h todasessas preocupaes secundrias que soessenciaisparaa tomadadedecisesqueso alheias ao procedimento. Por exem-plo: comoumsistema reconheceque es-t em uma situao de importncia ti-ca? Como ele define se tem a informaonecessria para resolver o problema?Que capacidades seriam necessrias pa-ra fazer julgamentos vlidos em situa-es complexas? algo difcil at parahumano, eno sabemosaindacomo im-plementar emrobs.

    Trs perguntas para

    Eu, rob

    O cientista e escritor IsaacAsimov cunhou as trs leisque devem reger a robticapela primeira vez no contoRunaround e depois asexplorou melhor nacoletnea de contos Eu,rob. As regras dizem queum rob no deve ferir umser humano ou deixar queuma pessoa se machuquepor omisso; a mquinatambm deve obedecer sordens dadas por qualquerhumano, a no ser que elasentrem em contradio coma primeira lei; e os robstambm so obrigados aproteger a prpriaexistncia, contanto que atarefa no seja um conflitos primeiras duas leis.

Recommended