Página Inicial » Temas Polêmicos




 
|06|
 

   
Os riscos do uso da inteligência Artificial segundo Stephen Hawking

O físico mais conhecido do mundo está nos alertando dos riscos da superinteligência das máquinas, dizendo que essa pode ser a coisa mais significativa a acontecer na história da humanidade – e possivelmente a última.

Stephen Hawking diz que a inteligência artificial pode ser o “maior erro na história”

O físico mais conhecido do mundo está nos alertando dos riscos da superinteligência das máquinas, dizendo que essa pode ser a coisa mais significativa a acontecer na história da humanidade – e possivelmente a última.

A superinteligência artificial representa uma ameaça em potencial à humanidade, então é bom ver um cientista respeitado como Stephen Hawking reconhecer a questão e fazer o que pode para espalhar a mensagem.

Hawking, junto com o cientista da computação Stuart Russell e os físicos Max Tegmark e Frank Wilczek, diz que os potenciais benefícios podem ser imensos, mas não podemos prever o que pode ser conseguido quando a inteligência artificial estiver bem desenvolvida – nem o que pode vir de bom nisso, nem o que pode acontecer de ruim.

Escrevendo para a The Independent, o cientista alerta:

Olhando para o futuro, não há limites fundamentais para o que pode ser alcançado: não há nenhuma lei física impedindo partículas de se organizarem de forma que executem cálculos ainda mais avançados do que os arranjos de partículas em cérebros humanos. Uma transição explosiva é possível, apesar de talvez ser um pouco diferente de um filme: como Irving Good percebeu em 1965, máquinas com inteligência sobre-humana podem repetidamente melhorar o próprio design, ativando o que Vernor Vinge chamou de “singularidade” e o personagem do filme de Johnny Depp chama de “transcendência”.

Alguém pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos, ficar além da manipulação de líderes humanos e desenvolver armas que nem conseguimos entender. Considerando que o impacto de curto prazo da AI depende de quem a controla, o impacto a longo prazo depende se ela pode ser de alguma forma controlada.

Então, encarando possíveis futuros de benefícios e riscos incalculáveis, os especialistas certamente vão fazer tudo possível para garantir o melhor resultado, certo? Errado. Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”? Provavelmente não – mas é mais ou menos isso o que está acontecendo com a inteligência artificial. Apesar de estarmos prestes a encarar o que potencialmente será a melhor ou pior coisa da história da humanidade, pouca pesquisa séria está sendo feita sobre essas questões fora de instituições sem fins lucrativos como o Centro de Estudos de Risco Existencial em Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de Inteligência de Máquina, e o Instituto de Vida Futura. Todos devíamos nos perguntar o que podemos fazer para melhorar as chances de colher os benefícios e evitar os riscos.

Podemos construir uma superinteligência artificial que não vai matar a gente?

Em algum momento, no nosso futuro, uma inteligência artificial que vai surgir é mais inteligente, mais rápido e muito mais poderoso do que nós. Quando isso acontecer, vamos deixar de ser o responsável. Mas o que vai acontecer com a humanidade? E como podemos nos preparar para essa transição? Nós conversamos com um especialista para descobrir.

Deixe uma máquina ultra-inteligente ser definida como uma máquina que pode superam todas as atividades intelectuais de qualquer homem por mais inteligente. Desde que o projeto de máquinas é uma dessas atividades intelectuais, uma máquina ultra-inteligente poderia projetar ainda melhores máquinas; não seria, então, sem dúvida, uma "explosão de inteligência", ea inteligência do homem seria deixado para trás ... Assim, a primeira máquina ultra-inteligente é a última invenção que o homem precisa sempre fazer.

Suponha-se que o poder de computação continua a dobrar de acordo com a lei de Moore, mas descobrir os algoritmos de inteligência geral semelhante à humana revela-se extremamente difícil. Quando o software para a inteligência geral é finalmente realizada, não poderia existir um "excesso de computação ': enormes quantidades de poder computacional barato disponível para executar [IAs]. IAs poderia ser copiado em toda a base de hardware, fazendo com que a população de IA para ultrapassar rapidamente a população humana.

 

 

 


Conheça os Cursos On-Line
Portal do Conhecimento