600 milhões de pessoas do mundo inteiro assistiam à TV enquanto Neil Armstrong e Buzz Aldrin desciam as escadas do Módulo Lunar Eagle e davam os primeiros passos da humanidade em outro mundo. O objetivo de Kennedy de enviar pessoas para a superfície da Lua e trazê-las de volta em segurança estava se materializando diante de olhos atentos de todas as nacionalidades. As imagens registradas nesse dia e as palavras ditas por Neil Armstrong ao tocar o solo lunar pela primeira vez ampliaram absurdamente o impacto de um dos feitos mais marcantes da humanidade.
Mas, como exatamente isso foi filmado a quase 400 mil km de distância e transmitido ao vivo para pessoas do mundo inteiro? Vamos falar sobre isso! Antes de falar das imagens dos primeiros passos na Lua, é preciso lembrar de uma distinção bastante importante: As missões Apollo usaram dispositivos de captura de imagem em movimento em filme e em vídeo.
E algumas das filmagens que você provavelmente já viu e que tem mais qualidade são de uma câmera de filme de 16mm chamada Maurer Data Acquisition Camera. É claro que eu não tenho uma delas aqui mas ela é bastante similar a essa aqui. Esse é uma câmera Super 8 que ficou bastante popular nos anos 60 e 70.
E assim como as câmeras de vídeo dos anos 90 ela tornou a captura de imagens em ambientes domésticos algo palpável e economicamente viável. É claro que ela não era barata, mas era mais acessível. Câmeras como essa gravam em filmes fotográficos menores do que você provavelmente já tá acostumado a ver.
O padrão do cinema são filmes com 35 mm, como esse aqui. As Super 8 usam filmes um pouco mais finos e eles ficam nesses cartuchos quadradinhos que são inseridos dentro da câmera. Eu tenho um dentro da embalagem original ainda, mas ele é de 1983 e eu tenho um pouco de dó de abrir.
E as câmeras de filme usadas nas missões Apollo funcionavam de maneira semelhante. Mas ao invés de filmes Super 8, as Maurer usavam cartuchos de 16 mm, que tinham um pouco mais de qualidade mas ainda mantinham seu formato compacto. Essas câmeras, assim como essa Super 8, tinham modos de gravação diferentes.
As filmagens podiam acontecer a 1 frame por segundo, 6 frames por segundo, 12 frames por segundo ou 24 frames por segundo. Um cartucho em uma filmagem a 1 frame por segundo durava 87 minutos. Se estivesse gravando a 24 frames por segundo durava cerca de 3 minutos e meio.
Durante a Apollo 11, por exemplo, essa câmera gravou o pouso do Módulo Lunar presa à Janela. E durante a caminhada de Buzz e Armstrong na Lua ela ficou presa à janela gravando a 1 frame por segundo. É por isso que toda vez que você vê essa imagem ela está acelerada.
Ela é realmente só um timelapse feito da janela do Módulo Lunar. Ela também foi usada na superfície nas outras missões. E é relativamente fácil descobrir se um vídeo dos astronautas na superfície da Lua veio dessa câmera.
A qualidade das filmagens em filme é bem melhor, principalmente nas primeiras missões Apollo. Mas, chegou a hora de falar sobre as transmissões de imagens ao vivo. Transmissão de dados entre o solo e naves no espaço foi um desafio desde as primeiras missões tripuladas.
Sinais de rádio carregam informações sobre diversos equipamentos de uma nave, dados médicos sobre ocupantes e a voz dos astronautas no espaço e dos engenheiros em solo, que se comunicam constantemente durante uma missão. A complexidade dos sistemas envolvidos no Programa Apollo aumentou significativamente a dificuldade de fazer isso se comparado às missões do Projeto Mercury e Gemini. Em uma missão para a Lua, a quantidade de dados transmitidos e as áreas do globo que precisam estar preparadas para receber e enviar sinais é bastante diferente.
E a infraestrutura de comunicação já existente não era suficiente para lidar com os requerimentos do Programa Apollo. A NASA precisou pensar em um novo jeito de fazer isso. E o sistema criado foi chamado de Unified S-Band System, ou USB.
Que não tem nada a ver com o USB que a gente tá acostumado. Além de tracking, o sistema também cumpria todos os requerimentos de comunicação necessários para as missões. Estações de recebimento na Terra garantiam a cobertura com antenas de 26 e 64 metros de diâmetro nos Estados Unidos, na Austrália e na Espanha.
Isso garantia a visibilidade da Lua necessária em qualquer momento do dia. As transmissões de TV do Programa Apollo não aconteceram só durante os pousos. Algumas também aconteciam ao longo da viagem.
E a primeira delas rolou na Apollo 7, a primeira missão tripulada do Programa. Em 11 de Outubro de 1968 um foguete Saturn IB decolou, carregando o Módulo de Comando com os 3 astronautas. Ela durou apenas 10 dias e não saiu da órbita da Terra.
A câmera que realizou esse feito foi produzida pela empresa RCA, pesava cerca de 2kg, e capturava um sinal de vídeo a 10 frames por segundo, em preto e branco e com uma resolução de 320 linhas. Ela contava com duas lentes diferentes. Uma grande-angular com ângulo de visão de 160 graus e uma teleobjetiva de 100mm para capturar imagens mais distantes.
A NASA decidiu as especificações necessárias para essa câmera em 1962 e a RCA recebeu o contrato para fabricar o equipamento. O frame rate mais baixo e as 320 linhas de scan eram diferentes do padrão de transmissão de 30 frames por segundo e 525 linhas que precisavam se acomodar na quantidade de banda disponível no sinal usado na missão. 3 transmissões diferentes foram feitas durante a Apollo 7.
Mas todas de curta duração já que os astronautas estavam na órbita terrestre baixa e passavam pouco tempo acima das estações que podiam capturar o sinal. Mas a Apollo 8 não teve esse problema por que foi uma missão para a Lua, ficando a maior parte do tempo visível para as antenas. Foram 6 transmissões que somaram um total de cerca de 90 minutos usando a mesma câmera da missão anterior.
Em uma dessas transmissões, a lente de 70 mm foi utilizada, permitindo o envio de imagens da Terra. O formato de transmissão que essas câmeras usavam fazia com que a conversão para o sistema normal da TV fosse bastante desafiadora. Colocar 320 linhas a 10 frames por segundo em 525 linhas a 30 frames por segundo não era tão fácil assim.
Pra resolver esse problema os engenheiros literalmente apontavam uma câmera normal para um monitor que era capaz de exibir o sinal de vídeo recebido. A Apollo 9, que decolou em 3 de março de 1969 e testou as capacidades do Módulo Lunar em órbita da Terra levou uma câmera nova: a Westinghouse Lunar Camera que também transmitia em preto e branco e de forma similar mas que foi projetada pra ser usada na superfície da Lua. As coisas mudaram um pouco mais na Apollo 10, que foi a primeira a realizar uma transmissão colorida usando a Westinghouse Color Camera.
Essa câmera pesava 6 kg e, assim como as outras, usava um sistema diferente do padrão de televisão para fazer sua captura. Pra conseguir capturar as cores o conceito é basicamente o mesmo de câmeras modernas. Para fazer uma imagem colorida, você precisa capturar informações em 3 cores diferentes: vermelho, verde e azul.
Sensores modernos, que estão no seu celular por exemplo, fazem isso com a ajuda de pixels. Essa câmera usava um tubo vidicon normal com um filtro giratório na frente dele. Se essa roda com 3 filtros com essas cores fosse girada com o timing correto era possível capturar amostras de imagem "RGB" e enviá-las para a Terra.
E além da câmera em si, um pequeno monitor ajudava no enquadramento. O sinal de cores sequencial era recebido em Houston e convertido para o sistema NTSC colorido que era transmitido em tempo real para as emissoras americanas. Essa mesma câmera foi levada na Apollo 11, mas só foi usada dentro do Módulo de Comando durante o caminho para a Lua.
As imagens dos primeiros passos na Lua foram feitas pela Westinghouse preta e branca, a mesma usada na Apollo 9. Essa câmera ficava do lado de fora do Módulo Lunar, presa em um equipamento chamado Modularized Equipment Stowage Assembly, ou MESA. Ela ficava de ponta cabeça presa ao suporte e em um ângulo que permitia a visualização da escada durante a saída dos astronautas.
A câmera ficava protegida por cobertores térmicos. junto com várias outras ferramentas. Quando Armstrong estava no topo da escada, ele puxava um mecanismo que abriu esse compartimento logo antes de descer.
E depois que os primeiros passos de Neil e Buzz foram dados, os astronautas puderam remover a câmera desse compartimento e colocá-la em um tripé mais afastado, como você pode ver nesse vídeo. Os sinais foram recebidos aqui na Terra pelas antenas de 64 metros de diâmetro em Goldstone, nos EUA, e Parkes, na Austrália. Ambas estavam visíveis durante a caminhada mas o Parkes Radio Telescope tinha um sinal melhor e foi usado durante praticamente toda a atividade extraveicular.
Essa antena era inicialmente um backup para a NASA. As antenas de 64 metros em Goldstone, Califórnia e de 26 metros em Canberra, na Austrália, eram suficientes para o que precisavam. Isso mudou pouco antes da missão e o Parkes Radio Telescope se tornou o receptor principal dos sinais.
Esses sinais recebidos foram enviados para a Australian Broadcasting Commission, que enviava as imagens para as emissoras australianas. E para o sinal chegar nos Estados Unidos, ele teve que passar por um satélite geoestacionário INTELSAT, que ficava sobre o Oceano Pacífico. Essa viagem do sinal adicionava um pouco de atraso na transmissão.
E além disso, a NASA também adicionou um delay de 6 segundos antes de enviar o sinal de TV para o resto do mundo. Caso houvesse um desastre, haveria tempo de cortar a transmissão do sinal para que o mundo não assistisse a uma catástrofe. Isso significa que os australianos foram os primeiros do mundo a assistirem Buzz e Neil caminharem na Lua.
Eles viram os primeiros passos em outro mundo um pouco mais de 6 segundos antes. A Apollo 12 levou uma câmera diferente para a superfície: a Westinghouse Lunar Color Camera. A mesma câmera usada na Apollo 10 foi modificada para sobreviver às condições térmicas da Lua.
A transmissão colorida ocorreu bem no começo. Mas, quando Pete Conrad retirou ela do compartimento do Módulo Lunar para colocá-la em um tripé, ele acidentalmente apontou sua lente para o Sol. Infelizmente isso danificou seus componentes e impediu que ela continuasse funcionando.
As missões Apollo 13 e 14 levaram duas Westinghouse Color Camera - uma no Módulo de Comando e uma no Módulo Lunar. E também levaram uma Westinghouse Preto e Branca como Backup no Módulo Lunar caso houvesse problemas com a colorida. Mas para evitar dano pelo Sol comoaconteceu na Apollo 12, a câmera colorida ganhou um simples protetor de lente que podia ser colocado durante sua manipulação.
As Apollo 15, 16 e 17 tiveram um novo equipamento à bordo: os Lunar Roving Vehicles. Todos eles foram equipados com uma câmera colorida que podia ser remotamente operada pelo centro de controle aqui na Terra. Ela era feita pela RCA e se chamava Ground-Commanded Television Assembly (GCTA).
As 3 últimas missões do programa Apollo foram as mais exploratórias do programa. A quantidade de atividades extraveiculares foi bem maior e a ideia de colocar essa câmera nos rovers ajudou muito nesse processo. A operação remota permitia que os controladores da NASA conseguissem acompanhar as atividades dos astronautas e participar mais ativamente da missão.
E também permitiu a transmissão de imagens da decolagem dos astronautas nas 3 últimas missões, como contei no vídeo dos Lunar Roving Vehicles. E além dos rovers, essas 3 últimas missões do Programa Apollo tiveram outra coisa de especial: No caminho para a Terra os astronautas tiveram que sair do Módulo de Comando para recuperar cartuchos de filmes que ficavam em uma das baias com experimentos científicos. A Westinghouse Color Camera foi montada na porta do Módulo de Comando e transmitiu imagens desse evento ao vivo.
A gente tem imagens com qualidade bastante impressionantes da superfície da Lua, principalmente das últimas missões Apollo. Mas, uma das coisas que os conspiracionistas gostam de ressaltar sobre esse assunto são as "fitas perdidas da Apollo". A alegação bastante comum é de que a NASA teria perdido as fitas do pouso na Lua.
E isso é mais ou menos verdade. Deixa eu explicar: Os dados crus de transmissão, com imagens a 10 frames por segundo e 320 linhas foram recebidos pelas antenas da Austrália e dos Estados Unidos e eram gravados em fitas ao mesmo tempo que as transmissões aconteciam. Em 2005 a NASA tentou achar essas fitas e não conseguiu.
A conclusão foi de que elas provavelmente foram apagadas e usadas novamente para outro propósito. Mas isso não quer dizer que as imagens sumiram! Outras gravações existiam mas todas já convertidas para o formato de televisão.
E um time de especialistas da NASA encontrou uma versão já convertida com muito mais qualidade que foi adaptada para os padrões atuais de vídeo e que pode ser vista em sua totalidade aqui mesmo no YouTube. Eu vou deixar o link na descrição! Em um certo momento do desenvolvimento do Programa Apollo alguns dos envolvidos no projeto não consideravam transmissões da superfície da Lua algo essencial ao Programa.
Mas, como conta um autor em uma publicação da Astronomical Society of Australia, em uma das reuniões em que discutiram isso: "Os veternos da NASA, que trouxeram esse programa para onde estava, se levantaram e deram discursos apaixonados sobre como a NASA devia isso para o povo e que eles deveriam ser capazes de testemunhar este evento histórico ao vivo enquanto estivesse acontecendo. " E por conta dessas pessoas que defenderam esse ponto nós, de uma geração que não testemunhou ao vivo o que foi um dos eventos mais marcantes da história da humanidade, podemos ter um gostinho da sensação de ver pessoas como nós, de carne e osso, pisar em uma superfície que não é parte da Terra pela primeira vez. O esforço e engenhosidade das pessoas que trabalharam direta ou indiretamente nas tecnologias por trás desse feito nos permitiram ter registros mais tangíveis do momento em que chegamos e do momento em que partimos da Lua.