Pular para o conteúdo

Há 10 anos, Stephen Hawking fazia uma previsão assustadora: a evolução da IA e das nossas tecnologias pode nos levar a um cenário de filme de ficção científica

Pessoa segurando ampulheta, com laptop aberto mostrando gráfico, globo e relógio em mesa de escritório.

Dez anos após alerta de Hawking, temores sobre IA, clima e armas ganham urgência em 2026

Há uma década, Stephen Hawking - um dos cientistas mais reconhecidos do mundo - fez um aviso que parecia distante. Em 2026, o prognóstico soa mais imediato: para ele, a humanidade pode enfrentar um risco existencial nas próximas eras, pressionada por tecnologias fora de controle, agravamento da crise climática e armamentos cada vez mais destrutivos.

Hawking não tratava o tema como um susto passageiro. Ele sustentava que, sem mudanças profundas - e sem ampliar a presença humana além da Terra - a espécie poderia desaparecer em alguns milhares de anos, em uma trajetória que hoje lembra menos especulação acadêmica e mais um conjunto de tendências em curso.

O recado em Oxford (2016): uma janela de 1.000 a 10.000 anos

Em 2016, durante uma conferência na Oxford Union, Hawking afirmou que a humanidade teria entre 1.000 e 10.000 anos de futuro no planeta caso não conseguisse se expandir para outros mundos.

O argumento era simples e desconfortável: mesmo que a chance de uma catástrofe global em um único ano seja pequena, a soma desse risco ao longo de séculos e milênios torna um desastre de grande escala praticamente inevitável. Para ele, as maiores ameaças não vinham de um evento cósmico imprevisível, mas de decisões e tecnologias produzidas pela própria civilização.

Hawking descrevia a humanidade como extremamente capaz do ponto de vista técnico, mas emocionalmente instável - lidando com ferramentas que poderiam eliminá-la.

IA e o temor da “singularidade” colocam a segurança no centro do debate

Uma das preocupações centrais de Hawking era a inteligência artificial em seu estágio mais avançado - não a IA voltada a tarefas do cotidiano, mas sistemas capazes de aprender de forma autônoma, se reprogramar e ultrapassar a inteligência humana, cenário frequentemente chamado de “singularidade”.

No lançamento do Centro Leverhulme para o Futuro da Inteligência, também em 2016, ele resumiu o dilema com dureza: uma IA completa poderia representar o maior avanço da história - ou o último.

A apreensão girava em torno de um ponto de inflexão em que sistemas artificiais ganhariam autonomia, escapariam do controle humano e operariam em velocidades e escalas impossíveis de acompanhar com supervisão política ou institucional.

De ferramenta cotidiana a risco geopolítico

Dez anos depois, o cenário tecnológico reforça parte desse receio. Modelos generativos já criam textos, códigos e imagens em segundos, enquanto algoritmos influenciam preços, logística global, fluxos financeiros e até decisões ligadas à segurança.

Entre os impactos apontados por analistas:

  • IAs empregadas para aprimorar arsenais e táticas de guerra cibernética.
  • Redes automatizadas que amplificam desinformação com alta segmentação.
  • Deepfakes que corroem a confiança pública e podem tensionar processos eleitorais.
  • Sistemas avançados que demandam grandes volumes de energia, aumentando a pressão sobre metas climáticas.

A interseção entre IA e poder militar é um dos pontos mais sensíveis: uma leitura equivocada de dados ou um erro de software em sistemas automatizados de alerta poderia, em tese, acelerar decisões de confronto em questão de minutos, reduzindo a margem para recuos diplomáticos.

Clima em aquecimento e armas letais: o mundo mais perto do limite

Hawking também apontava o aquecimento global como um processo em direção a um possível “ponto de não retorno”. Em 2025, a temperatura média da Terra já teria subido cerca de 1,41 ºC em relação ao período pré-industrial.

Projeções indicam que o patamar simbólico de 1,5 ºC pode ser ultrapassado por volta de 2029. A diferença parece pequena, mas tende a intensificar efeitos como eventos extremos mais frequentes, pressão sobre a produção de alimentos, deslocamentos forçados e aumento de tensões políticas - incluindo impactos sentidos no Brasil, como secas prolongadas, enchentes e stress sobre infraestrutura e abastecimento.

No mesmo panorama entram riscos ligados a armas nucleares e biológicas: acordos internacionais perdem tração, iniciativas sigilosas seguem existindo e agentes patogênicos sintéticos passam a figurar com mais destaque em avaliações estratégicas.

Relógio do Apocalipse marca 85 segundos antes da meia-noite em 2026

Em janeiro de 2026, o Boletim dos Cientistas Atômicos ajustou o “Relógio do Apocalipse” para 85 segundos antes da meia-noite - a posição mais próxima do colapso simbólico em quase 80 anos.

Para o boletim, o tripé formado por aquecimento global, tensões nucleares e corrida por IA cria um nível de risco global raro na história recente.

Criado por cientistas ligados a figuras como Albert Einstein e J. Robert Oppenheimer, o relógio não mede tempo real: ele expressa uma avaliação sobre quão perto a humanidade estaria de uma ruptura civilizacional causada por suas próprias ações.

Expandir para o espaço: estratégia de sobrevivência ou promessa cara?

Para Hawking, uma resposta ganhava status de prioridade: evitar que a humanidade dependa de um único planeta - “não colocar todos os ovos na mesma cesta”. Em termos práticos, isso significaria construir presença no Sistema Solar e, no longo prazo, avançar para outras estrelas.

O que em 2016 podia soar quase romântico, em 2026 se cruza com uma disputa concreta por influência. A Estação Espacial Internacional (ISS) se aproxima do fim de sua vida útil, enquanto Estados Unidos, China e Rússia impulsionam programas próprios envolvendo estações orbitais, bases na Lua e exploração de recursos.

Ao mesmo tempo, cresce o debate sobre a militarização da órbita, com propostas de escudos espaciais e vigilância permanente. Um projeto apelidado de “Golden Dome” durante a era Trump levantou alertas ao sugerir a possibilidade de integrar armas nucleares ou de energia dirigida a plataformas orbitais.

Uma saída real ou apenas transferência do problema?

A discussão segue aberta: investir de forma massiva em colônias lunares ou em Marte resolve riscos existenciais - ou apenas os desloca?

Abordagem Vantagens apontadas Riscos e limitações
Colonização espacial como “seguro” Diminui a dependência de um único planeta; acelera ciência e tecnologia Custos extremamente altos; acesso concentrado em poucos países e empresas; risco de reproduzir desigualdades
Prioridade para “consertar a Terra” Benefícios imediatos para bilhões de pessoas; respostas climáticas e sociais mais rápidas Mantém vulnerabilidade a catástrofes globais; instabilidade política pode travar acordos

Uma crítica recorrente é que apostar em Marte ou em bases na Lua não pode se tornar justificativa para adiar ações urgentes na Terra, como redução de emissões, controle de armas e regulação de IA.

A agressividade humana em tempos de tecnologia total

Hawking também insistia em um ponto menos técnico e mais comportamental: o que chamava de “instinto herdado de agressão”. Para ele, a capacidade de cooperação evoluiu, mas impulsos de dominação e conflito permanecem - agora amplificados por ferramentas com alcance planetário.

Com IA, esse traço ganha novas dimensões. Sistemas capazes de segmentar eleitores, impulsionar discurso de ódio ou orientar drones armados podem aumentar o poder de decisões tomadas por poucos, em ambientes com baixa transparência e pouco controle público.

A tecnologia, por si só, não determina o desastre - mas pode multiplicar o efeito de escolhas políticas e éticas já presentes.

Conceitos e cenários usados para mapear ameaças

O que “singularidade” quer dizer no debate sobre IA

No campo da inteligência artificial, “singularidade” costuma se referir ao momento em que sistemas artificiais superariam a inteligência humana em praticamente todas as tarefas relevantes e passariam a se aprimorar sem depender diretamente de programadores.

Entre hipóteses discutidas por pesquisadores:

  • IAs com papel estratégico em cadeias de suprimento, energia e defesa de vários países.
  • Sistemas autônomos operando finanças em alta velocidade, com potencial de colapsos abruptos.
  • IA aplicada à biologia sintética para desenhar patógenos com alta capacidade de disseminação.
  • Modelos militares com autonomia para selecionar e atacar alvos com mínima supervisão humana.

Não há consenso de que a singularidade ocorrerá, nem sobre prazos. O ponto convergente é a necessidade de governança e regras antes que sistemas cheguem perto desse limiar.

Simulações que parecem ficção, mas orientam políticas públicas

Universidades e centros de pesquisa vêm combinando modelos climáticos, dados econômicos e simulações com IA para entender como crises podem se encadear, por exemplo:

  • Um verão extremo com incêndios florestais simultâneos em diferentes continentes.
  • Falhas em redes elétricas pressionadas pelo consumo de IA e pelo uso de ar-condicionado.
  • Desinformação automatizada elevando pânico social e conflitos internos.
  • Respostas governamentais com medidas de exceção apoiadas em sistemas preditivos pouco transparentes.

Esses exercícios não buscam prever datas exatas, e sim testar medidas: quais infraestruturas reforçar, que tipo de regulação reduz danos e como compatibilizar metas climáticas com a expansão tecnológica.

Entre risco e oportunidade, o tempo para decidir encolhe

Mesmo ao apontar ameaças, Hawking não descrevia um destino inevitável. Ele defendia que a humanidade poderia atravessar desafios combinando ciência, cooperação internacional e limites claros para suas próprias armas.

A própria IA, por exemplo, pode ajudar a prever ondas de calor, melhorar o uso de energia, acelerar pesquisas médicas e desenvolver materiais menos poluentes. A tensão está justamente no sentido dado a essas ferramentas: quanto mais poderosas, maior o impacto das escolhas sobre como - e para quê - serão usadas.

Com o “Relógio do Apocalipse” marcando 85 segundos antes da meia-noite, a janela simbólica para definir esse rumo parece cada vez menor - e a sensação de ficção científica, cada vez mais próxima de um retrato do presente.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário