Dez anos após alerta de Hawking, temores sobre IA, clima e armas ganham urgência em 2026
Há uma década, Stephen Hawking - um dos cientistas mais reconhecidos do mundo - fez um aviso que parecia distante. Em 2026, o prognóstico soa mais imediato: para ele, a humanidade pode enfrentar um risco existencial nas próximas eras, pressionada por tecnologias fora de controle, agravamento da crise climática e armamentos cada vez mais destrutivos.
Hawking não tratava o tema como um susto passageiro. Ele sustentava que, sem mudanças profundas - e sem ampliar a presença humana além da Terra - a espécie poderia desaparecer em alguns milhares de anos, em uma trajetória que hoje lembra menos especulação acadêmica e mais um conjunto de tendências em curso.
O recado em Oxford (2016): uma janela de 1.000 a 10.000 anos
Em 2016, durante uma conferência na Oxford Union, Hawking afirmou que a humanidade teria entre 1.000 e 10.000 anos de futuro no planeta caso não conseguisse se expandir para outros mundos.
O argumento era simples e desconfortável: mesmo que a chance de uma catástrofe global em um único ano seja pequena, a soma desse risco ao longo de séculos e milênios torna um desastre de grande escala praticamente inevitável. Para ele, as maiores ameaças não vinham de um evento cósmico imprevisível, mas de decisões e tecnologias produzidas pela própria civilização.
Hawking descrevia a humanidade como extremamente capaz do ponto de vista técnico, mas emocionalmente instável - lidando com ferramentas que poderiam eliminá-la.
IA e o temor da “singularidade” colocam a segurança no centro do debate
Uma das preocupações centrais de Hawking era a inteligência artificial em seu estágio mais avançado - não a IA voltada a tarefas do cotidiano, mas sistemas capazes de aprender de forma autônoma, se reprogramar e ultrapassar a inteligência humana, cenário frequentemente chamado de “singularidade”.
No lançamento do Centro Leverhulme para o Futuro da Inteligência, também em 2016, ele resumiu o dilema com dureza: uma IA completa poderia representar o maior avanço da história - ou o último.
A apreensão girava em torno de um ponto de inflexão em que sistemas artificiais ganhariam autonomia, escapariam do controle humano e operariam em velocidades e escalas impossíveis de acompanhar com supervisão política ou institucional.
De ferramenta cotidiana a risco geopolítico
Dez anos depois, o cenário tecnológico reforça parte desse receio. Modelos generativos já criam textos, códigos e imagens em segundos, enquanto algoritmos influenciam preços, logística global, fluxos financeiros e até decisões ligadas à segurança.
Entre os impactos apontados por analistas:
- IAs empregadas para aprimorar arsenais e táticas de guerra cibernética.
- Redes automatizadas que amplificam desinformação com alta segmentação.
- Deepfakes que corroem a confiança pública e podem tensionar processos eleitorais.
- Sistemas avançados que demandam grandes volumes de energia, aumentando a pressão sobre metas climáticas.
A interseção entre IA e poder militar é um dos pontos mais sensíveis: uma leitura equivocada de dados ou um erro de software em sistemas automatizados de alerta poderia, em tese, acelerar decisões de confronto em questão de minutos, reduzindo a margem para recuos diplomáticos.
Clima em aquecimento e armas letais: o mundo mais perto do limite
Hawking também apontava o aquecimento global como um processo em direção a um possível “ponto de não retorno”. Em 2025, a temperatura média da Terra já teria subido cerca de 1,41 ºC em relação ao período pré-industrial.
Projeções indicam que o patamar simbólico de 1,5 ºC pode ser ultrapassado por volta de 2029. A diferença parece pequena, mas tende a intensificar efeitos como eventos extremos mais frequentes, pressão sobre a produção de alimentos, deslocamentos forçados e aumento de tensões políticas - incluindo impactos sentidos no Brasil, como secas prolongadas, enchentes e stress sobre infraestrutura e abastecimento.
No mesmo panorama entram riscos ligados a armas nucleares e biológicas: acordos internacionais perdem tração, iniciativas sigilosas seguem existindo e agentes patogênicos sintéticos passam a figurar com mais destaque em avaliações estratégicas.
Relógio do Apocalipse marca 85 segundos antes da meia-noite em 2026
Em janeiro de 2026, o Boletim dos Cientistas Atômicos ajustou o “Relógio do Apocalipse” para 85 segundos antes da meia-noite - a posição mais próxima do colapso simbólico em quase 80 anos.
Para o boletim, o tripé formado por aquecimento global, tensões nucleares e corrida por IA cria um nível de risco global raro na história recente.
Criado por cientistas ligados a figuras como Albert Einstein e J. Robert Oppenheimer, o relógio não mede tempo real: ele expressa uma avaliação sobre quão perto a humanidade estaria de uma ruptura civilizacional causada por suas próprias ações.
Expandir para o espaço: estratégia de sobrevivência ou promessa cara?
Para Hawking, uma resposta ganhava status de prioridade: evitar que a humanidade dependa de um único planeta - “não colocar todos os ovos na mesma cesta”. Em termos práticos, isso significaria construir presença no Sistema Solar e, no longo prazo, avançar para outras estrelas.
O que em 2016 podia soar quase romântico, em 2026 se cruza com uma disputa concreta por influência. A Estação Espacial Internacional (ISS) se aproxima do fim de sua vida útil, enquanto Estados Unidos, China e Rússia impulsionam programas próprios envolvendo estações orbitais, bases na Lua e exploração de recursos.
Ao mesmo tempo, cresce o debate sobre a militarização da órbita, com propostas de escudos espaciais e vigilância permanente. Um projeto apelidado de “Golden Dome” durante a era Trump levantou alertas ao sugerir a possibilidade de integrar armas nucleares ou de energia dirigida a plataformas orbitais.
Uma saída real ou apenas transferência do problema?
A discussão segue aberta: investir de forma massiva em colônias lunares ou em Marte resolve riscos existenciais - ou apenas os desloca?
| Abordagem | Vantagens apontadas | Riscos e limitações |
|---|---|---|
| Colonização espacial como “seguro” | Diminui a dependência de um único planeta; acelera ciência e tecnologia | Custos extremamente altos; acesso concentrado em poucos países e empresas; risco de reproduzir desigualdades |
| Prioridade para “consertar a Terra” | Benefícios imediatos para bilhões de pessoas; respostas climáticas e sociais mais rápidas | Mantém vulnerabilidade a catástrofes globais; instabilidade política pode travar acordos |
Uma crítica recorrente é que apostar em Marte ou em bases na Lua não pode se tornar justificativa para adiar ações urgentes na Terra, como redução de emissões, controle de armas e regulação de IA.
A agressividade humana em tempos de tecnologia total
Hawking também insistia em um ponto menos técnico e mais comportamental: o que chamava de “instinto herdado de agressão”. Para ele, a capacidade de cooperação evoluiu, mas impulsos de dominação e conflito permanecem - agora amplificados por ferramentas com alcance planetário.
Com IA, esse traço ganha novas dimensões. Sistemas capazes de segmentar eleitores, impulsionar discurso de ódio ou orientar drones armados podem aumentar o poder de decisões tomadas por poucos, em ambientes com baixa transparência e pouco controle público.
A tecnologia, por si só, não determina o desastre - mas pode multiplicar o efeito de escolhas políticas e éticas já presentes.
Conceitos e cenários usados para mapear ameaças
O que “singularidade” quer dizer no debate sobre IA
No campo da inteligência artificial, “singularidade” costuma se referir ao momento em que sistemas artificiais superariam a inteligência humana em praticamente todas as tarefas relevantes e passariam a se aprimorar sem depender diretamente de programadores.
Entre hipóteses discutidas por pesquisadores:
- IAs com papel estratégico em cadeias de suprimento, energia e defesa de vários países.
- Sistemas autônomos operando finanças em alta velocidade, com potencial de colapsos abruptos.
- IA aplicada à biologia sintética para desenhar patógenos com alta capacidade de disseminação.
- Modelos militares com autonomia para selecionar e atacar alvos com mínima supervisão humana.
Não há consenso de que a singularidade ocorrerá, nem sobre prazos. O ponto convergente é a necessidade de governança e regras antes que sistemas cheguem perto desse limiar.
Simulações que parecem ficção, mas orientam políticas públicas
Universidades e centros de pesquisa vêm combinando modelos climáticos, dados econômicos e simulações com IA para entender como crises podem se encadear, por exemplo:
- Um verão extremo com incêndios florestais simultâneos em diferentes continentes.
- Falhas em redes elétricas pressionadas pelo consumo de IA e pelo uso de ar-condicionado.
- Desinformação automatizada elevando pânico social e conflitos internos.
- Respostas governamentais com medidas de exceção apoiadas em sistemas preditivos pouco transparentes.
Esses exercícios não buscam prever datas exatas, e sim testar medidas: quais infraestruturas reforçar, que tipo de regulação reduz danos e como compatibilizar metas climáticas com a expansão tecnológica.
Entre risco e oportunidade, o tempo para decidir encolhe
Mesmo ao apontar ameaças, Hawking não descrevia um destino inevitável. Ele defendia que a humanidade poderia atravessar desafios combinando ciência, cooperação internacional e limites claros para suas próprias armas.
A própria IA, por exemplo, pode ajudar a prever ondas de calor, melhorar o uso de energia, acelerar pesquisas médicas e desenvolver materiais menos poluentes. A tensão está justamente no sentido dado a essas ferramentas: quanto mais poderosas, maior o impacto das escolhas sobre como - e para quê - serão usadas.
Com o “Relógio do Apocalipse” marcando 85 segundos antes da meia-noite, a janela simbólica para definir esse rumo parece cada vez menor - e a sensação de ficção científica, cada vez mais próxima de um retrato do presente.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário