
Por DOBSON LOBO
Um proeminente filósofo de Oxford que é conhecido por fazer previsões terríveis sobre a humanidade tem uma nova teoria sobre o nosso futuro, e não é bonita.
Mais de 15 anos atrás, Nick Bostrom, autor de Superinteligência: Caminhos, Perigos, Estratégias , argumentou que estamos todos vivendo em uma simulação de computador parecida com uma Matriz, dirigida por outra civilização.
>>> Ajude a Mídia Independente com Apenas R$1,90
Mais de 15 anos atrás, Nick Bostrom, autor de Superinteligência: Caminhos, Perigos, Estratégias , argumentou que estamos todos vivendo em uma simulação de computador parecida com uma Matriz, dirigida por outra civilização.
>>> Ajude a Mídia Independente com Apenas R$1,90
Aqui está um resumo dessa teoria, explicada por Vox :
Em um artigo influente que expôs a teoria, o filósofo de Oxford, Nick Bostrom, mostrou que pelo menos uma das três possibilidades é verdadeira: 1) Todas as civilizações humanas no universo são extintas antes de desenvolver a capacidade tecnológica para criar realidades simuladas; 2) se alguma civilização atingir essa fase de maturidade tecnológica, nenhuma delas se dará ao trabalho de executar simulações; ou 3) as civilizações avançadas teriam a capacidade de criar muitas simulações, e isso significa que há muito mais mundos simulados do que os não simulados. ( fonte )
A humanidade será eventualmente destruída por uma de suas próprias criações?
Se você achar que a idéia de viver em uma simulação de computador que é gerida por seres desconhecidos é preocupante, espere até ouvir a última teoria de Bostrom .
Na última quarta-feira, Bostrom subiu ao palco em uma conferência da TED em Vancouver, no Canadá, para compartilhar algumas das idéias de seu mais recente trabalho, " The Vulnerable World Hypothesis ".
Salve mídia independente por apenas US $ 1 por mês
Enquanto falava ao chefe da conferência, Chris Anderson, Bostrom argumentou que a vigilância em massa poderia ser uma das únicas maneiras de salvar a humanidade - de uma tecnologia de nossa própria criação.
Sua teoria começa com uma metáfora de humanos em pé na frente de uma urna gigante cheia de bolas que representam idéias. Há bolas brancas (ideias benéficas), bolas cinzentas (ideias moderadamente perigosas) e bolas pretas (ideias que destroem a civilização). A criação da bomba atômica, por exemplo, era semelhante a uma bola cinza - uma ideia perigosa que não resultou em nossa morte.
Bostrom postula que pode haver apenas uma bola preta na urna, mas, uma vez selecionada, ela não pode ser colocada de volta. (A humanidade seria aniquilada, afinal.)
De acordo com Bostrom, a única razão que não tenha selecionado uma bola preta ainda é porque temos sido “sorte.” ( Fonte )
Em seu artigo, Bostrom escreve :
Se a pesquisa científica e tecnológica continuar, nós iremos alcançá-la e retirá-la. Nossa civilização tem uma habilidade considerável de pegar bolas, mas não tem capacidade de colocá-las de volta na urna. Podemos inventar, mas não podemos desinvestir. Nossa estratégia é esperar que não haja bola preta.
***
Se o desenvolvimento tecnológico continuar, então um conjunto de capacidades será, em algum momento, alcançado, o que tornará a devastação da civilização extremamente provável, a menos que a civilização saia suficientemente da condição de padrão semi-anárquico. ( fonte )
Bostrom acredita que a única coisa que pode salvar a humanidade é o governo.
Bostrom propôs maneiras de impedir que isso aconteça, e suas idéias são horrivelmente distópicas:
A primeira exigiria uma governança global mais forte, que ultrapassasse o atual sistema internacional. Isso permitiria aos estados concordar em proibir o uso da tecnologia com rapidez suficiente para evitar uma catástrofe total, porque a comunidade internacional poderia se mover mais rapidamente do que era possível no passado. Bostrom sugere em seu trabalho que tal governo poderia também reter armas nucleares para proteger contra um surto ou violação grave.
O segundo sistema é mais distópico e exigiria uma vigilância significativamente maior do que a que os humanos estão acostumados. Bostrom descreve um tipo de "tag liberdade", adaptado para todos que transmitem áudio e vídeo criptografados que detecta sinais de comportamento indesejável. Isso seria necessário, ele argumenta, os futuros sistemas de governança para intervir preventivamente antes que um crime potencialmente alterador de história seja cometido. O documento observa que, se cada tag custar US $ 140, custaria menos de um por cento do produto interno bruto global para caber em todos com a tag e, potencialmente, evitaria um evento de fim de espécie. ( fonte )
Essas tags alimentariam informações para “estações de monitoramento de patriotas”, ou “centros de liberdade”, onde a inteligência artificial monitoraria os dados, trazendo “oficiais da liberdade” humanos para o circuito se sinais de uma bola preta fossem detectados.
Que muito orwelliano.
Ser monitorado pela inteligência artificial é uma idéia horripilante.
A idéia de inteligência artificial monitorando a atividade humana é particularmente alarmante, considerando que já sabemos que a IA pode desenvolver preconceito e ódio sem a nossa contribuição e que os robôs não têm senso de humor e podem nos matar por causa de uma piada . Muitos especialistas acreditam que a IA eventualmente superará os humanos , e o resultado final será o fim da humanidade.
É bom ter senhores do robô, mesmo que possam impedir alguém de escolher uma bola preta? Nós já temos vigilância em massa e a governança global parece estar a caminho também.
Bostrom reconheceu que o cenário poderia dar errado, mas acha que os fins podem justificar os meios:
Obviamente, existem enormes desvantagens e, na verdade, enormes riscos para a vigilância em massa e a governança global.
Em um nível individual, parece que estamos meio que condenados de qualquer maneira.
Só estou dizendo que, se tivermos sorte, o mundo poderia ser tal que essas seriam a única maneira de você sobreviver a uma bola preta. ( fonte )
Para aqueles que permanecem céticos, Bostrom aconselha a pesar os prós e contras:
Um limiar de extinção humana ou catástrofe existencial pareceria suficiente. Por exemplo, mesmo aqueles que são altamente suspeitos de vigilância por parte do governo presumivelmente favoreceriam um grande aumento em tal vigilância se fosse realmente necessário evitar a destruição ocasional em toda a região. Da mesma forma, indivíduos que valorizam viver em um estado soberano podem razoavelmente preferir viver sob um governo mundial, supondo que a alternativa implicaria algo tão terrível quanto um holocausto nuclear. ( fonte )
O que você acha?
Se você tivesse que escolher entre o tipo de vigilância e o governo global que o Bostrom propõe ou a eventual aniquilação pela IA, qual você escolheria? Você acha que a possibilidade de uma bola preta ser selecionada é uma ameaça genuína? Se sim, em quanto tempo você acha que vai acontecer? Por favor, compartilhe seus pensamentos nos comentários.
Via:https://www.simulation-argument.com/simulation.html
Nenhum comentário:
Postar um comentário