terça-feira, março 17, 2015

Inteligência artificial é mais perigosa que bomba atômica, diz estudo

http://cidadenewsitau.blogspot.com.br/Um laptop capaz de ganhar milhões no mercado financeiro, controlar arsenais bélicos e manipular a política desbanca em minutos o
exterminador do futuro.

Com essa cena, o professor Stuart Armstrong, da Universidade de Oxford, abre o livro "Smarter Than Us" (mais inteligentes do que nós), em que explica como a inteligência artificial (IA) é diferente do que é difundido pela cultura pop.

Justamente por isso, ela seria muito mais ameaçadora do que imaginamos.

Armstrong é coautor do estudo "12 Riscos que Ameaçam a Civilização Humana", do grupo sueco Global Challenges Foundation, que calculou em até 10% as chances de, se o cenário se concretizar, o impacto sobre a sociedade ser irreversível. A probabilidade é maior do que as calculadas para mudança climática (0,01%), e guerra nuclear (0,005%).

As estimativas foram feitas com base na literatura existente sobre o tema, nos trabalho e prioridades de organizações que atuam na área e na análise de experts.

A IA é um risco "único" porque simula e supera o ser humano na sua principal vantagem sobre a natureza: a inteligência. Quando um computador domina uma atividade, nenhum ser humano conseguirá fazê-la melhor, diz o professor.

Esses sistemas teriam capacidades de concentração, paciência, velocidade de processamento e memória muito superiores à nossa.

A combinação dessas características com habilidades econômicas ou sociais permitiria à inteligência artificial controlar o mundo, afirma o matemático.

Um computador com habilidades sociais, por exemplo, poderia processar milhares de discursos políticos, estatísticas e referências culturais rapidamente, escolhendo qual o argumento mais convincente para fazer um eleitor votar em um candidato ou defender certa bandeira política.

E se essa tecnologia for aplicada propagandas de grupos terroristas?

Raciocínio semelhante vale para o mercado financeiro: uma sistema poderia cruzar informações sobre indicadores econômicos, decisões políticas e balanços de empresas de modo mais rápido e mais preciso.

Os defensores dessas tecnologias rebatem dizendo que esses problemas poderiam ser evitados por meio de uma programação ética, que fizesse a máquina sempre optar pela "escolha moral" -como salvar uma vida em vez de um carro.

Mas, segundo Armstrong, é impossível fazê-lo tanto matematicamente quanto "filosoficamente", porque as possibilidades de dilemas éticos são infinitas.

Procurado pela Folha, o professor respondeu que estava em um "retiro filosófico para ter ideias para um controle seguro da IA" e que não poderia comentar.

O físico Stephen Hawking já disse que "o desenvolvimento de uma inteligência artificial pode significar o fim da raça humana".


"PERIGOS SÃO IMAGINAÇÃO"

Especialistas em inteligência artificial (IA) são céticos quanto aos cenário catastrófico descrito no estudo "12 Riscos que Ameaçam a Civilização Humana".

"Tem muita imaginação nessa previsão", afirma Heloísa Camargo, coordenadora da comissão de inteligência artificial da Sociedade Brasileira de Computação.

Para Camargo, ainda que exista um risco, as pesquisas ainda estão longe de produzir algo nos moldes narrados pelo estudo.

Jogar xadrez, uma das habilidades mais avançadas de a IA hoje, nem se compara à capacidade de cálculo e ao volume e diversidade de informações necessários para analisar o mercado financeiro.

E, mesmo que cheguemos a esse ponto, ainda poderemos controlar as máquinas porque nenhum sistema é à prova de invasões, afirma a professora da USP Renata Wassermann. "Eu acho muito ficção científica", diz.

Ela diferencia a inteligência "forte" -como imaginada pelo relatório- da "fraca", presente no cotidiano.

Um exemplo de IA fraca é o computador Watson, da IBM, que ganhou o programa de perguntas e respostas americano "Jeopardy" e é usado em pesquisas na área de saúde.

A tecnologia também pode ser a nossa única ferramenta para enfrentar os outros riscos listados no estudo, como os próprios autores afirmam.

Fonte: Folha de São Paulo

Nenhum comentário:

Postar um comentário

Sua opinião é muito importante para nós, comente essa matéria!