Como Stanislav Petrov evitou uma guerra nuclear em 1983
Na madrugada de 26 de setembro de 1983, a humanidade esteve a minutos de uma guerra nuclear em escala global. O início dos anos 1980 marcava um dos momentos mais tensos da Guerra Fria. Após a invasão soviética do Afeganistão em 1979, a eleição de Ronald Reagan nos Estados Unidos trouxe uma política externa agressiva, que chamava a União Soviética de “Império do Mal” e acelerava o programa nuclear norte-americano. A OTAN realizava exercícios militares na Europa, como o Able Archer 83, simulando um ataque nuclear, o que aumentava a paranoia em Moscou de que uma ofensiva real estivesse prestes a ocorrer¹.
De acordo com o historiador David Holloway, a lógica da corrida armamentista era marcada pela ideia de destruição mútua assegurada: se um lado disparasse, o outro responderia de forma imediata, garantindo a aniquilação de ambos². Era um equilíbrio frágil, sustentado por intimidação e medo constantes.
Foi nesse ambiente que o tenente-coronel Stanislav Petrov assumiu seu turno no centro de comando do sistema soviético de alerta precoce, chamado Oko. Subitamente, o computador indicou o lançamento de um míssil nuclear dos EUA. Pouco depois, mais quatro. Cinco mísseis em rota de colisão com a União Soviética. De acordo com o protocolo, Petrov deveria avisar imediatamente seus superiores, o que poderia desencadear uma retaliação nuclear.
Como lembra Eric Schlosser, a cadeia de comando nuclear soviética e americana era construída para ser rápida e quase automática, pois qualquer hesitação poderia significar a destruição do país. Mas essa mesma lógica tornava o sistema vulnerável ao erro humano ou tecnológico³.
Petrov, contudo, desconfiou. Pensou que, se os EUA realmente quisessem atacar, não o fariam com apenas cinco mísseis, mas com centenas. Além disso, os radares terrestres não confirmavam os lançamentos. Em poucos minutos de tensão, ele tomou a decisão que salvaria o mundo: classificou o alerta como falso. Estava certo. O sistema de satélites havia confundido reflexos do sol em nuvens de alta altitude com lançamentos de mísseis.
Bruce Blair analisa que esse tipo de falha não era incomum e que a dependência de sensores eletrônicos criava uma “ilusão de segurança”, quando, na verdade, a margem para erro era enorme⁴. David Hoffman acrescenta que o episódio de Petrov não foi isolado, mas parte de uma sequência de incidentes perigosos nos anos 1980, quando soviéticos e americanos chegaram, em diferentes ocasiões, a acreditar que estavam sob ataque. Para reduzir esse risco, Moscou criou o sistema automático “Perímetro”, conhecido no Ocidente como Dead Hand, capaz de lançar uma retaliação nuclear mesmo sem comando humano⁵.
Richard Rhodes reforça que essa lógica produzia um paradoxo: quanto mais armas e sistemas se acumulavam, maior era a vulnerabilidade a falhas. O caso Petrov revela esse dilema — foi a desobediência consciente de um oficial, e não a obediência cega ao sistema, que impediu a catástrofe⁶.
As lições de 1983
A tecnologia nuclear é indispensável para defesa, mas também falha. Como apontou Schlosser, ela sempre carregou consigo a possibilidade do erro catastrófico³. Petrov só conseguiu agir porque comparou os sinais do satélite com os radares de solo. A redundância é parte essencial da ciência e da segurança.
AS ÚLTIMAS OPINIÕES
++++
++++
O valor humano aqui ganhou contornos dramáticos: uma única pessoa, diante de protocolos rígidos, pode salvar ou destruir civilizações inteiras. O episódio de 1983 foi apenas um sintoma de um sistema global em que a sobrevivência dependia, em parte, do acaso e da coragem individual⁵.
Naquela noite, o mundo não acabou. E a razão foi complexa e extraordinária: um oficial soviético decidiu pensar por conta própria.
Referências
1. LEWIS, Jeffrey; WIT, Joel S. The 1983 Nuclear Crisis. Washington, D.C.: Center for International Security and Cooperation, 2018.
2. HOLLOWAY, David. Stalin and the Bomb: The Soviet Union and Atomic Energy, 1939-1956. New Haven: Yale University Press, 1994.
3. SCHLOSSER, Eric. Command and Control: Nuclear Weapons, the Damascus Accident, and the Illusion of Safety. New York: Penguin Press, 2013.
4. BLAIR, Bruce G. The Logic of Accidental Nuclear War. Washington, D.C.: Brookings Institution, 1993.
5. HOFFMAN, David E. The Dead Hand: The Untold Story of the Cold War Arms Race and Its Dangerous Legacy. New York: Doubleday, 2009.
6. RHODES, Richard. Arsenals of Folly: The Making of the Nuclear Arms Race. New York: Vintage, 2007.
