1 de outubro de 2012

RAY KURZWEIL Computadores vão se equiparar à mente humana no ano 2029


RAIO-X - RAY KURZWEIL
NASCIMENTO
Em Nova York, EUA, em 1948
INVENÇÕES
Primeiro sistema de reconhecimento óptico de caracteres para qualquer tipo de fonte, primeira máquina de leitura texto para cegos e primeiro sintetizador musical
PRÊMIOS
Recebeu o Prêmio Lemelson-MIT, a maior premiação do mundo para a inovação, e a Medalha Nacional de Tecnologia, a maior honraria em tecnologia dos EUA
PUBLICAÇÕES
Escreveu seis best-sellers, entre eles "A Era das Máquinas Espirituais"



O INVENTOR NORTE-AMERICANO RAY KURZWEIL, IMPULSOR DA INTELIGÊNCIA ARTIFICIAL, AFIRMA QUE, EM BREVE, MÁQUINAS VÃO IMITAR DE FORMA INDISTINGUÍVEL O COMPORTAMENTO DE UMA PESSOASALVADOR NOGUEIRA

COLABORAÇÃO PARA A FOLHA. 1/10/2012


Em coisa de 50 anos, a humanidade será completamente diferente do que sempre foi. Máquinas menores que a espessura de um fio de cabelo ajudarão a manter a saúde no interior do corpo e participarão da atividade cerebral, tornando mundos virtuais tão realistas para os sentidos quanto o mundo verdadeiro. E a imortalidade estará ao nosso alcance.
Maluquice? Pode ser. Mas o maior proponente dessas ideias certamente não é maluco. Um dos inventores mais brilhantes das últimas décadas, o americano Ray Kurzweil é um importante impulsor da inteligência artificial há mais de 30 anos. Entre suas criações estão sistemas de reconhecimento de caracteres e de voz.
Aos que torcem o nariz para a sua futurologia, Kurzweil lembra que, usando o mesmo raciocínio, ele foi capaz de prever a explosão mundial da internet quando ela se resumia a 2.000 cientistas usuários, na década de 1980. Ele prevê alguns avanços notáveis que podem servir de balisas para o seu poder de previsão. O inventor sugere, por exemplo, que um computador poderá exibir comportamento que imite de forma indistinguível um ser humano em 2029.
Confira a seguir trechos da entrevista que ele concedeu àFolha durante sua última passagem por São Paulo, durante o evento de gestão Fórum HSM.
Folha - O sr. fala do aumento exponencial da tecnologia, mas há quem já fique irritado de ter de comprar um iPhone novo todo ano. O próprio perfil de consumo não vai frear o ritmo de avanço tecnológico?
Ray Kurzweil - Isso não vai acontecer, porque a tecnologia está evoluindo para se adaptar ao ser humano. Quando eu era jovem, computadores eram só para engenheiros e técnicos. Hoje, a interface está cada vez mais simples e intuitiva. Hoje, as pessoas conhecem faixas muito estreitas do conhecimento, mas temos nossas ferramentas computadorizadas para encontrar as informações de que precisamos. Então, já estamos expandindo nossas mentes por essas ferramentas. No fim das contas, elas vão parar dentro do nosso corpo e do nosso cérebro.
Como o sr. vê o percurso futuro da tecnologia, uma vez que mesmo eventos como guerras mundiais ou recessões econômicas fortes parecem ser incapazes de frear seu avanço? Há um limite?
Os limites definitivos, que vêm das leis da física, na verdade não são muito limitadores. Podemos expandir nossa inteligência trilhões de vezes antes de alcançar esse limiar. Agora, o que pode parar tudo é um derretimento existencial da civilização. Isso não é impossível. Nós temos armas atômicas em número suficiente para fazer isso.
E quanto ao risco representado por novas tecnologias?
Eu escrevi muito sobre o risco existencial vindo da genética, da nanotecnologia e da robótica. Eu não acho que a solução certa seria banir essas tecnologias. Primeiro, estaríamos nos privando dos benefícios. Ainda há muito sofrimento no mundo. Não acho que queremos dizer aos pacientes de câncer, "bem, estamos muito próximos de reprogramar a biologia e eliminar o câncer, mas vamos cancelar tudo isso por causa do risco de bioterrorismo".
Em segundo lugar, seria preciso um sistema totalitário para impor um banimento em biotecnologia.
Mais importante, contudo, isso não funcionaria. Só empurraríamos essas tecnologias para o submundo, onde as únicas pessoas que teriam acesso a elas seriam os criminosos. Cientistas responsáveis, com quem contaríamos para nos proteger, não teriam acesso às ferramentas para fazer isso.
Embora sua visão seja extremamente otimista quanto ao avanço da medicina, temos um sistema de desenvolvimento e aprovação de novos medicamentos que consome muitos anos. Isso não impedirá a evolução acelerada?
Eu acho que há problemas com a regulação. Mas não acho que seja um problema com a FDA [agência que regula remédios nos EUA] e com as agências reguladoras de outros países, e sim com as expectativas públicas e a ideia do juramento de Hipócrates, que eu acho errada. Ele diz: "em primeiro lugar, não faça mal". Se você quer não fazer mal, demita todos os médicos e feche todos os hospitais, porque então você nunca faria mal nenhum. Sempre que você tenta ajudar as pessoas, há uma possibilidade de fazer mal a elas.
Sim, mas a ideia é ser cauteloso...
Não é um jogo de risco zero, você tem de considerar o risco da doença. E isso não recebe igual atenção na regulamentação. Se houver uma pequena chance de prejudicar o paciente, isso vai segurar o processo, mesmo que haja uma chance enorme de ajudar o paciente.
O sr. tem defendido que o desenvolvimento de máquinas capazes de pensar passa por usar o cérebro humano como modelo, e o sr. também fala de superinteligência, muito superior à do cérebro humano. Entretanto, temos exemplos de supercapacidades em humanos, como os savants, que têm memória e habilidades prodigiosas, mas, em compensação, apresentam um sério deficit em outras áreas da cognição. Será que não há aí uma barreira intransponível para a superinteligência?
O cérebro humano tem limitações. Faz certas coisas muito bem, e só podemos nos beneficiar aprendendo como funciona e então evitando algumas de suas limitações. Uma delas diz respeito à capacidade. Estimo que haja cerca de 300 milhões de reconhecedores de padrões no neocórtex. É isso que pode caber lá, biologicamente, por causa da arquitetura do crânio. Uma vez que possamos criar um córtex artificial que funcione do mesmo modo, não existe razão pela qual o limitemos em 300 milhões, porque não teremos essa limitação física. Você pode ir para 1 bilhão, 1 trilhão...
Mas como saber que vai funcionar? Talvez haja uma limitação inerente à arquitetura do sistema. Não há como saber se ele continuará operando se você aumentar a escala ou se simplesmente haverá uma sobrecarga.
Você obviamente terá de tentar construir [esse supercérebro] para saber se ele funciona. Até agora funciona bem. Ainda não estamos no nível humano de inteligência. Mas, quando os computadores aprendem a fazer alguma coisa, conseguem fazê-la muito bem, na verdade melhor que os humanos.
Temos muito caminho a percorrer, mas não acho que estejamos muito longe. A data que eu sugiro é 2029, quando os computadores estarão no nível dos humanos.
E quanto à diferença entre inteligência e consciência? O sr. acha que máquinas serão capazes de fazer esse salto de autopercepção?
Bem, é uma questão filosófica. Algumas pessoas acham que a consciência é pensar sobre pensar; se você pode descrever seu processo de pensamento, isso é consciência. Minha posição é de que algumas teorias a esse respeito soam científicas, mas não são. Não são diferentes da crença religiosa de que há um ser supremo que atribui consciência a certas coisas, como humanos. Minha conclusão: você não pode evitar saltos de fé.
A aceleração da tecnologia leva, numa expressão que o sr. tomou emprestado da física, a uma singularidade -uma realidade imprevisível que não podemos ver agora porque está escondida de nós da mesma forma que um buraco negro. Queria levar essa metáfora um pouco mais adiante. Se eu fosse um viajante espacial e passasse perto de uma singularidade, faria tudo para evitá-la. Nós devemos evitar a singularidade tecnológica?
É uma ótima pergunta. Eu acho que estamos sendo puxados para ela e não podemos evitá-la. Nós temos inteligência suficiente para falar de como seria cair numa singularidade. Nós não necessariamente perceberíamos que cruzamos o horizonte dos eventos. Acho que é a mesma coisa aqui.
O mais difícil de encarar é a noção de uma IA (inteligência artificial) não amigável, que seria mais inteligente que nós e defenderia valores que não reconhecemos em nosso sistema moral. Acho que o melhor jeito de nos defendermos disso é enfatizar os valores que respeitamos em nossa sociedade hoje, valores como democracia, tolerância, apreciação pelo próximo, liberdade de expressão e por aí vai.
O mundo do futuro não virá de um único laboratório. Ele emergirá do mundo de hoje. Se praticarmos esses valores agora, temos a melhor chance de refleti-lo no mundo do futuro. Não é uma estratégia infalível. Mas acho que é o melhor que podemos fazer.
Mas como os nossos valores vão ser transferidos às máquinas?
Bem, acho que nossas máquinas estão tremendamente integradas à nossa sociedade. Elas não estão isoladas em algum laboratório. Há 6 bilhões de celulares, 1 bilhão de smartphones, uma criança na África tem mais poder na sua mão que o presidente dos Estados Unidos tinha 15 anos atrás, em termos de acesso ao conhecimento e à informação. Indivíduos, jovens, têm o poder de mudar o mundo. Não é uma abstração. E as máquinas não estão lá fora com sua própria cultura. Nós já somos uma civilização homem-máquina.

Nenhum comentário:

Postar um comentário