Temporario



Jogos | Séries | Filmes | RPG e Tabuleiro | Animes | Creepypastas | Quadrinhos | Livros | Mapa do Blog | Sobre o Blog | Contato |

domingo, 29 de junho de 2014

A apocalíptica previsão de Stephen Hawking sobre I.A

Acho que todo mundo que visita o blog deve sentir no mínimo uma faísca de empolgação quando o assunto é tecnologia. Tem vezes que sonhamos sobre o quanto o futuro não será bom, as surpresas que estão por vir, e também "Eu queria ter nascido um pouco mais pra frente", isso para se ver coisas espetaculares reservadas apenas a aqueles que nascerão no futuro. No entanto esse tipo de coisa pode também ser um verdadeiro problema grave.

O norte americano Eric Drexler apavorou o mundo quando em 1986 falou sobre a possibilidade da existência de uma inteligência artificial chamada Gosma Cinzenta, e deixou muita gente alerta sobre o caos e destruição da humanidade. No entanto esse medo não ficou apenas naquela época, e grandes mentes continuaram a imaginar o quanto uma máquina pode nos ultrapassar e o que ela poderia fazer com todos nós, se aceitaria ser controlada. Sendo assim o gênio Stephen Hawking também demonstrou em 2014 que teme algo do gênero, e enviou uma carta para o jornal The Independent alertando sobre os seus medos, confiram:

"Olhando para o futuro, não há limites fundamentais para o que pode ser alcançado: não há nenhuma lei física impedindo partículas de se organizarem de forma que executem cálculos ainda mais avançados do que os arranjos de partículas em cérebros humanos. Uma transição explosiva é possível, apesar de talvez ser um pouco diferente de um filme: como Irving Good percebeu em 1965, máquinas com inteligência sobre-humana podem repetidamente melhorar o próprio design, ativando o que Vernor Vinge chamou de “singularidade” e o personagem do filme de Johnny Depp chama de “transcendência”.

Alguém pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos, ficar além da manipulação de líderes humanos e desenvolver armas que nem conseguimos entender. Considerando que o impacto de curto prazo da AI depende de quem a controla, o impacto a longo prazo depende se ela pode ser de alguma forma controlada.

Então, encarando possíveis futuros de benefícios e riscos incalculáveis, os especialistas certamente vão fazer tudo possível para garantir o melhor resultado, certo? Errado. Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”? Provavelmente não – mas é mais ou menos isso o que está acontecendo com a inteligência artificial. Apesar de estarmos prestes a encarar o que potencialmente será a melhor ou pior coisa da história da humanidade, pouca pesquisa séria está sendo feita sobre essas questões fora de instituições sem fins lucrativos como o Centro de Estudos de Risco Existencial em Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de Inteligência de Máquina, e o Instituto de Vida Futura. Todos devíamos nos perguntar o que podemos fazer para melhorar as chances de colher os benefícios e evitar os riscos."

Já pensaram? O mundo transformando no bizarro mundo de I Have No Mouth, and I Must Scream?

Nenhum comentário: