07.08.2009 - Se a maturidade de uma tecnologia é proporcional às suspeitas que ela desperta, a inteligência artificial está só 35 anos atrás da engenharia genética. A elite da biologia mundial se reuniu em 1975 em Asilomar, na baía californiana de Monterey, para estabelecer um padrão de segurança no então incipiente setor do criação de genes e organismos vivos. Quase 35 anos depois, a nata da inteligência artificial, um setor das ciências da computação especialmente dinâmico, considerou necessário repetir aquela conferência histórica. E não é por acaso que tenha sido mais uma vez em Asilomar.
Os cientistas da computação acabam de discutir a necessidade de impor limites à pesquisa em inteligência artificial e robótica. Alguns estão preocupados que elas possam levar à perda do controle humano sobre as máquinas. Algumas são de guerra, como os Predator, aviões teleguiados que sobrevoam e atacam por conta própria; outras abrem portas e buscam tomadas para se carregar, fazem experimentos científicos, formulam hipóteses ou rastreiam um território como as abelhas. Para não falar nos vírus de informática: isso sim é puro Asilomar.
A conferência ocorreu em 25 de fevereiro passado, foi organizada pela Associação para o Avanço da Inteligência Artificial, e suas atas serão publicadas nos próximos meses. Seu conteúdo foi conhecido agora através de um artigo do especialista John Markoff no jornal "The New York Times".
"Os cientistas aperfeiçoaram tecnologias muito diferentes", escreve Markoff, "como os sistemas médicos experimentais que simulam empatia ao interagir com pacientes, ou os vírus e vermes informáticos que se tornam resistentes ao extermínio, e portanto alcançaram o que se poderia chamar da fase de barata [assim chamada porque se supõe que esses insetos sobreviveriam inclusive a um holocausto nuclear] da inteligência artificial." Markoff é um dos melhores escritores do mundo sobre ciências da computação.
Na conferência também se discutiu a possibilidade de que o avanço da inteligência artificial transforme de maneira drástica o mercado de trabalho. Os robôs já não se encarregam só de tarefas rotineiras, como as linhas de montagem, mas também de afazeres intelectuais - ou que pelo menos foram considerados assim até agora -, como a experimentação genética.
Os cientistas descartam riscos como o Big Brother de George Orwell, a superinteligência centralizada capaz de dominar a raça humana. Parecem pensar que 1984 é um futuro fora de moda. Também não acreditam que a inteligência, com ou sem super, possa emergir espontaneamente de uma rede como a Internet. "Mas concordam em que os robôs que podem matar de forma autônoma já estão aqui ou chegarão logo", escreve Markoff.
Outro ponto de discussão foram os robôs de companhia, como os que estão sendo desenvolvidos pela cientista espanhola Lola Cañamero na Universidade de Hertfordshire, na Inglaterra. Os especialistas não duvidam de que esses robôs possam se adaptar para viver entre pessoas. O que se perguntam é se é adequado "forçar" as pessoas a se adaptar para viver entre eles.
Os computadores já se equiparam aos grandes mestres de xadrez, mas as tarefas que os humanos fazemos sem esforço consciente - como aproveitar um pequeno tropeço no tapete para nos sentaremos no único lugar livre do sofá - até agora foram impossíveis de programar.
A próxima geração de robôs não será dedicada a fazer guerra, e sim a acompanhar os solitários, cuidar de idosos, entreter crianças e ajudar na casa. E isso implica uma avançada ciência da computação que saiba ler e interpretar as emoções humanas e que permita ao robô aprender a conviver com as singularidades de seu dono.
O projeto europeu mais avançado nesse setor é Feelix Growing, financiado com 2,5 milhões de euros (cerca de R$ 6,8 milhões) pelo programa de robótica avançada da Comissão Europeia. Nele, 25 especialistas em robótica, psicólogos e neurocientistas de seis países colaboram para desenvolver robôs "que interajam com os humanos em seu entorno cotidiano de uma forma fértil, flexível e autônoma". Suas primeiras tarefas serão a companhia, a prestação de cuidados, o entretenimento e a monitoração de pacientes. Esse é o projeto dirigido por Cañamero.
"Para que os robôs possam viver com as pessoas, têm de crescer com os humanos e aprender a interpretar suas emoções", ela explicou. "Isso implica várias estratégias que pesquisamos paralelamente, como equipar os robôs com o equivalente de um sistema de prazer e dor que priorize seus estímulos, permitir que eles aprendam comportamentos sociais, como a distância que devem manter das pessoas."
Dor, felicidade, nojo, medo, amor, ódio e surpresa não só são universais nas culturas humanas, como têm suas raízes no passado remoto da espécie. Seus sinais externos são numerosos e reconhecíveis entre culturas. E portanto também o podem ser por um robô.
Os humanos expressamos muitas emoções com sinais externos universais e inconscientes. De forma apropriada nesta data, foi Darwin quem propôs que gestos como "encolher os ombros em sinal de impotência, ou levantar as mãos abertas em sinal de espanto" são produto da evolução, em seu livro de 1872 "A Expressão das Emoções no Homem e nos Animais". Esse livro é menos conhecido que "A Origem das Espécies", mas provavelmente é o fundamento das modernas ciências cognitivas. A psicologia experimental contemporânea deu total razão a Darwin.
Uma máquina que possa interpretar as emoções humanas também poderá simulá-las. Ou a palavra é "senti-las"? Segundo o teste de Turing, teremos de considerar inteligente um computador quando o pareça. Não devemos também considerá-lo insensível quando o pareça?
"É possível que os robôs cheguem a passar em uma espécie de teste de Turing emocional, mas o farão com truques, e não porque sintam emoções reais", afirma Cañamero. "A tendência nesse campo, de fato, é a pensar que o outro teste de Turing, o original, também não será uma prova válida da inteligência de um computador."
Isaac Asimov imaginou em seus romances três leis que deveriam ser estampadas nos circuitos de qualquer robô: não bater nos humanos, obedecer-lhes salvo conflito com o anterior e autoproteger-se salvo conflito com todo o anterior. Há algo disso na robótica da vida real?
"As duas primeiras não têm muito sentido com os protótipos atuais", responde a cientista. "Há filósofos, porém, que já se colocam questões desse tipo. E sim, há algo da terceira lei; um robô deve se autoproteger para funcionar de forma autônoma." O termo "ficção-científica" fica francamente exíguo em alguns casos.
Ross King e Stephen Oliver, das universidades britânicas de Gales e Manchester, inventaram um robô que promete libertar o Homo sapiens do mais desagradável de todos os trabalhos forçados: o de pensar.
O autômato de King e Oliver formula hipóteses, cria experimentos para as avaliar, faz isso sem demora, interpreta os resultados, adapta suas teorias de acordo com eles e repete o ciclo. A eficácia do robô é semelhante à do melhor de nove humanos formados em biologia e ciências da computação que fizeram a mesma pesquisa em paralelo. E, por mais eletricidade que gaste, nem chega perto do valor escandaloso das bolsas de pesquisa de pré-doutorado.
Os levedos sintetizam três compostos essenciais (aminoácidos) através de uma rede de 25 reações químicas interconectadas, cada uma catalisada por uma proteína. Cada proteína é codificada por um gene, e cada gene pode ser desativado através de uma mutação. Um levedo mutante é incapaz de se multiplicar em um meio de cultivo, a menos que lhe ofereçam o produto da reação química que lhe falta (ou de uma reação posterior).
King e Oliver forneceram ao robô os reagentes, os 25 levedos mutantes e alguns conhecimentos básicos sobre o metabolismo desse organismo, e lhe pediram que descobrisse a função dos 25 genes. E assim fez o robô, com efeito. Os dois cientistas afirmam que sua intenção não é condenar os cientistas ao desemprego, mas libertá-los de certas tarefas intelectuais para que possam se concentrar "nos avanços criativos de alto nível". Soa bem.
"Se um robô pode fazer algo que seria considerado criativo se fosse feito por um humano, eu consideraria o robô criativo", explicou King. "Creio que os computadores já resolveram criativamente problemas de xadrez e matemática. A questão aberta é até que ponto isso pode se estender a outros campos do conhecimento."
A posição de King lembra o já mencionado teste de Turing, que propõe que um computador deverá ser considerado inteligente quando conseguir enganar um humano para fazê-lo crer (em uma prova às cegas) que o computador também é um ser humano. Esse teria sido provavelmente o caso de Gary Kasparov se não tivesse sabido que estava jogando contra o computador Deep Blue.
King não estará pensando em construir um robô jornalista? "Não, mas estou interessado em um robô crítico de arte." Isso já não soa tão bem.
Os robôs atuais não só incorporam dispositivos avançados de visão, audição e tato, como também podem seguir um rastro olfativo, tarefa que tinha sido especialmente difícil de programar até pouco tempo atrás: as pistas olfativas do mundo real não formam trajetórias contínuas; o vento as fragmenta, as espalha e desorganiza. Mas o problema foi resolvido por um algoritmo de Massimo Vergassola, do Instituto Pasteur em Paris, e Boris Schraiman, da Universidade da Califórnia em Santa Barbara. Chama-se "infotaxis".
Vergassola e Shraiman negam ter plagiado os insetos - seu algoritmo é mais o resultado de uma reflexão sobre qualquer sistema de rastreamento real ou virtual -, mas o caso é que as trajetórias de seu rastreador artificial lembram muito uma mariposa buscando um parceiro. As mariposas buscam parceiros seguindo o rastro dos feromônios.
A palavra "robô" vem do checo "robota", que significa trabalho. Desde que Ctesíbio de Alexandria inventou uma clepsidra automática, no século 3º antes de Cristo, evitando assim o trabalho de ter de dar a volta ao relógio de areia a cada dez minutos, a robótica avançou com passo firme para libertar a humanidade da servidão que lhe impõe sua existência terrena. Os cientistas não querem renunciar à inteligência artificial. Só tentam que ela mesma não se transforme em uma nova servidão.
Fonte: UOL notícias
--------------------------------------------------------------------------------------------------------------
Lembrando...
Especialista alerta para ameaça dos robôs assassinos terroristas
27.02.2008 - Robôs assassinos podem se tornar a arma predileta dos extremistas. A advertência foi feita hoje, durante uma conferência, por Noel Sharkey, professor de inteligência artifical e robótica na Universidade de Sheffield, no Reino Unido. Ele acredita que a redução de custos pode, em breve, transformar os robôs em uma opção realista e acessível para grupos terroristas.
"O problema é que, na verdade, não podemos devolver o gênio à garrafa, uma vez que as novas armas estão em ação, serão bastante fáceis de serem copiadas", disse Sharkey na conferência organizada pelo Royal United Services Institute, de acordo com informações da agência Reuters.
Sharkey exemplificou dizendo que um pequeno avião não-tripulado guiado por GPS e com piloto automático pode ser fabricado hoje por cerca de 332 euros - equivalente a pouco mais de R$ 830.
Várias empresas e países, com o Departamento de Defesa dos Estados Unidos encabeçando o movimento, estão desenvolvendo a tecnologia de armas robóticas. Apenas no Iraque, mais de 4 mil robôs já estão em ação.
"Quanto tempo se passará antes que os terroristas se somem à esta tendência?", perguntou o professor, argumentando que a enorme queda nos preços atuais para a construção de robôs e a disponibilidade de componentes preparados para o mercado de aficionados pela robótica fazem com que não seja necessária muita habilidade para fabricar armas robóticas autônomas.
Redação Terra