Quais eram os princípios operacionais do MITI do Japão durante as décadas de 1950 e 60?

Quais eram os princípios operacionais do MITI do Japão durante as décadas de 1950 e 60?

O Ministério da Indústria e Comércio Internacional do Japão (MITI) guiou a economia do Japão por duas décadas de crescimento econômico sem precedentes. O MITI foi o principal instrumento da política industrial do Japão, que não dirigiu toda a economia como um sistema comunista de planejamento central faria, mas "forneceu às indústrias orientação administrativa e outras direções, tanto formais quanto informais, sobre modernização, tecnologia e investimentos em novas fábricas e equipamentos, e concorrência nacional e estrangeira "(fonte: wikipedia). Como o MITI foi configurado? Como atraiu burocratas competentes e bem-intencionados? Como isso evitou conflitos de interesse entre indústrias consolidadas e consumidores?

As referências a uma descrição longa de como eles conseguiram esse feito (em inglês) também seriam apreciadas.


O MITI foi formado pela fusão da Agência de Comércio e do Ministério do Comércio e Indústria. Seu objetivo era ajudar a conter a inflação e fornecer liderança governamental em diferentes tipos de indústrias. O MITI ajudou essas indústrias estabelecendo políticas de exportação e importação, bem como de induções domésticas. Na verdade, a política de comércio exterior que desenvolveram foi projetada para fortalecer a manufatura nacional. Eles também foram responsáveis ​​por estabelecer diretrizes relativas ao controle de poluição, energia e energia, e reclamações de clientes.

A chave para seu sucesso do ponto de vista burocrático era que eles não tinham um grupo de burocratas que tomava decisões que achavam que seriam bem-sucedidas. Em vez disso, eles confiaram em reunir as principais figuras de cada campo da indústria para obter um consenso sobre as políticas antes de implementá-las. Eles também incentivaram os líderes do setor a compartilhar suas melhores práticas para garantir que todos tivessem uma oportunidade de sucesso.

Em relação ao seu pedido de uma descrição longa de como eles fizeram isso, encontrei um artigo de pesquisa de Harvard que se concentra especificamente no papel do MITI nos avanços da tecnologia da informação. No entanto, os princípios aplicados neste campo específico são igualmente relevantes em outras formas de indústria. Aqui está um exemplo do ponto principal que reúne tudo isso:

O MITI por si só não é responsável pelo sucesso econômico do Japão. Em vez disso, seu forte parece ser a capacidade de reunir pontos de vista divergentes na criação de políticas nacionais que sejam geralmente aceitáveis ​​para os vários setores da sociedade. A construção de consenso continua sendo uma das características marcantes da cena japonesa. O sucesso do Japão e do MITI na era pós-guerra deveu-se em grande parte à estabilidade política de que desfrutou. Essa estabilidade permitiu que o MITI desempenhasse seu papel de orientação e coordenação de maneira eficaz.


Há uma explicação muito completa sobre o crescimento econômico japonês no trabalho do acadêmico asiático Chalmers Johnson. Blowback: Os custos e consequências do Império Americano. Além de uma explicação muito bem pesquisada sobre as ações americanas e o conceito derivado da comunidade de inteligência de "blowback", ele fornece uma explicação muito detalhada sobre o sucesso econômico japonês (você provavelmente estaria interessado em seu trabalho com uma explicação mais direta do papel de o MITI especificamente, o MITI e o Milagre Japonês: O Crescimento da Política Industrial, 1925-1975). Seu argumento em Contragolpe é que, além da habilidade japonesa na indústria promovida por empresas como o MITI, muito de seu incrível crescimento se deveu à capacidade de usar o ambiente geopolítico em seu benefício.

"Aproximadamente de 1950 a 1970, os Estados Unidos trataram o Japão como um pupilo amado, satisfazendo todas as suas necessidades econômicas e orgulhosamente patrocinando-o como um aluno capitalista famoso. Os Estados Unidos patrocinaram a entrada do Japão em muitas instituições internacionais ... transferiram tecnologias cruciais para os japoneses em termos virtualmente concessionários e abriram seus mercados aos produtos japoneses enquanto toleravam a produção do Japão em seu próprio mercado doméstico."

-Chalmers Johnson, Blowback: Os custos e consequências do Império Americano, p.177

Um dos pontos interessantes que Johsnon faz é a sua afirmação de que "Os regimes de exportação do Leste Asiático prosperaram com a demanda externa gerada artificialmente por uma potência imperialista ... a estratégia só funcionou enquanto o Japão e talvez um ou dois países menores seguissem essa estratégia."Embora as políticas benéficas inicialmente tenham beneficiado tanto o Japão quanto os EUA, o primeiro foi descrito acima e o último, fornecendo bens de consumo baratos e um exemplo dos benefícios do capitalismo a serem usados ​​nos conflitos ideologicamente impulsionados no Leste Asiático. sobre o final da década de 1980, os japoneses desenvolveu uma sobrecapacidade para produzir bens destinados ao mercado americano ao mesmo tempo que as políticas americanas no Japão (e em outros lugares) esvaziou as indústrias americanas vitais, reduzindo as oportunidades de emprego e salários nos EUA e, portanto, reduzindo a capacidade do consumidor dos EUA de absorver os produtos japoneses.

Seu argumento é mais elaborado no capítulo 9 de Blowback, e eu realmente recomendo que você verifique em sua biblioteca local ou compre, se quiser saber mais.


Underwriters Laboratories, Inc.

Underwriters Laboratories, Inc. (UL) e suas subsidiárias em todo o mundo avaliam produtos, materiais e sistemas quanto à segurança e conformidade com os padrões dos EUA e estrangeiros. Em 1998, mais de 14 bilhões de marcas UL apareceram em novos produtos em todo o mundo. A equipe da UL desenvolveu mais de 600 padrões de segurança, 80% dos quais foram aprovados como padrões nacionais americanos. As taxas de teste e serviço de clientes apoiam a organização independente e sem fins lucrativos.


USS Amberjack (SS-522)

Configuração do Guppy II como ela parecia quando servi a bordo. As armas de convés foram removidas durante as conversões GUPPY.

Deslocamento: 1.570 (surf.), 2.415 (subm.)
Comprimento: 311 ′ 8 ″, Feixe: 27 ′ 3 ″
Calado: 15 ′ 5 ″ (média), Velocidade: 20,25 k. (surfar), 8,75 k. (subm.)
Complemento: 81
Armamento: 10 tubos de torpedo de 21 ″, 1 canhão de convés de 5 ″, 1 de 40 mm. arma de convés
Classe: BALAO

O segundo AMBERJACK (SS-522) foi colocado em 8 de fevereiro de 1944 no Boston Navy Yard, lançado em 15 de dezembro de 1944 patrocinado pela Sra. Dina C. Lang e encomendado em 4 de março de 1946, Comdr. William B. Parham no comando. O primeiro submarino com este nome, USS Amberjack (SS219), foi afundado pelo torpedeiro japonês Hiyodori em 16 de fevereiro de 1943, menos de 9 meses após o comissionamento. Para ler mais sobre as façanhas e a perda do SS219, você pode ler os dois relatórios escritos de patrulha de guerra de seu capitão e seus relatórios por rádio da terceira patrulha até o momento em que ela afundou. Clique aqui para ler a história muito comovente.

Após o treinamento de shakedown nas Índias Ocidentais e no Golfo do México, AMBERJACK apresentou-se em 17 de junho para o dever com o Esquadrão de Submarinos (SubRon) 8. Operando a partir da Base de Submarinos, New London, Connecticut, ela conduziu missões de treinamento no Atlântico Norte , e, em novembro de 1946, fez um cruzeiro acima do Círculo Polar Ártico. Em janeiro de 1947, o submarino entrou no Estaleiro Naval de Portsmouth (NH) para modificações extensas e, posteriormente, passou cerca de um ano passando por uma conversão "Guppy" II (de maior poder de propulsão subaquática) durante a qual seu casco e vela foram aerados e baterias adicionais e um snorkel foi instalado para aumentar sua resistência de velocidade submersa e capacidade de manobra. Em janeiro de 1948, ela se apresentou ao serviço SubRon 4 baseado em Key West, Flórida. Ela operou ao longo da costa leste e nas Índias Ocidentais por um pouco mais de 11 anos. Sua programação incluía o desenvolvimento de táticas e exercícios de navio independentes, treinamento de tipo, revisões periódicas e exercícios de frota. Durante esse período, ela também visitou vários portos do Caribe. Em julho de 1952, AMBERJACK foi transferida para o recém-criado SubRon 12, embora ela permanecesse baseada em Key West e seu emprego continuasse como antes.

A edição de janeiro de 1950 da National Geographic Magazine traz um artigo de 23 páginas sobre a Marinha em Key West com muitas fotos do Amberjack e sua tripulação. O autor estava a bordo durante a subida íngreme que ficou famosa na foto ao pé desta página.

Mergulho com snorkel Amberjack em Key West em 1950

No início de agosto de 1959, após mais de 11 anos de operações fora de Key West, o porto de origem do submarino foi mudado para Charleston, SC. ​​Ela chegou lá no dia 8 e se apresentou ao serviço com seu ex-esquadrão, SubRon 4. Enquanto trabalhava com ela novo porto de origem, as operações da AMBERJACK permaneceram exatamente como antes, com uma diferença significativa: ela começou a fazer implantações em águas europeias. Em agosto, setembro e outubro de 1960, o submarino participou de um exercício da OTAN antes de fazer uma visita de uma semana ao porto de Portsmouth, na Inglaterra. Ela voltou para Charleston no final de outubro e retomou suas funções normais. Entre maio e setembro de 1961, o navio de guerra foi implantado no Mar Mediterrâneo para servir na 6ª Frota.

Eu me reportei a bordo em 9 de setembro de 1961 em Charleston, Carolina do Sul, como atacante Seaman 1C, ET. Minha tarefa nas primeiras duas semanas foi a de cozinheira, que fazia parte da rotina de iniciação. Partimos imediatamente para o mar, pois um furacão se aproximava e todos os navios da USN deviam ser colocados em mar aberto para não baterem contra os cais. Estávamos no meio de alguns reparos que nos deixaram incapazes de submergir, então tivemos que cavalgar até a superfície. Nós balançamos como um coco na rebentação e eu fiquei constantemente enjoado por vários dias enquanto enfrentávamos mares enormes. Não podíamos sair para o convés, então tive que arrastar latas de lixo pela sala de controle, subir uma escada para a torre de comando e subir outra escada para a ponte. Então eu tive que esperar pelo ângulo correto de rolagem para que o lixo não caísse no convés quando eu despejasse o conteúdo pela lateral. Tudo sem vomitar ao longo do caminho. Se eu fizesse um bom trabalho, o Conning Officer me deixaria ficar lá em cima por um tempo para tomar um pouco de ar fresco no rosto. Após o período de iniciação, tornei-me membro regular da gangue de Eletrônica no Departamento de Operações.

Minhas funções incluíam radar permanente e contra-relógios eletrônicos e manutenção do equipamento. Girei o leme, o controle de mergulho e as estações de vigia, e minha estação de batalha estava na estação de controle dos aviões da proa, pois eu era muito bom em manter o ângulo ordenado do barco.

Fizemos paradas frequentes em Fort Lauderdale, Flórida, onde executamos perfis de som no Centro de Testes do Sul da Flórida. O leito do mar caiu para 600 pés dentro de 3 milhas da costa, portanto, era um intervalo de teste ideal. Pararíamos em um píer comercial em Port Everglades, sairíamos pela manhã, subiríamos e desceríamos a maior parte do dia e voltaríamos para Fort Lauderdale à noite. Enquanto estivéssemos nessa função, usaríamos relógios de bombordo e estibordo (típicos no porto) em vez de 3 relógios no mar. Às vezes, deixávamos uma das 2 seções de vigia em terra para a liberdade, pois só precisávamos de 1 vigia para o dia. Eles apenas tinham que estar de volta ao cais a tempo de nos amarrar. Depois de um dia na cidade, às vezes eles tinham problemas para pegar as linhas pesadas.

Em dias não operacionais, realizávamos a Casa Aberta no barco para os visitantes locais. Costumávamos brincar que a razão de estarmos lá tantas vezes era porque o capitão tinha uma namorada lá. Eu sei que muitos dos caras do barco fizeram.

Também paramos em Key West para patrulhar as águas entre a Flórida e Cuba. Em 1962, participamos de um importante exercício de frota, “Spring Board”. Nós e vários outros submarinos vigiamos e “atacamos” a flotilha militar todas as noites a caminho de Porto Rico. Estávamos baseados em San Juan quando não transportávamos e “trancávamos” os Navy SEALs enquanto estavam submersos para que pudessem “invadir” a Ilha Vieques em suas jangadas de borracha.

Hoje, não é incomum que os barcos tenham pessoal armado no convés ao entrar em águas restritas. Mas naquela época não tínhamos muita experiência com armas pequenas, exceto para & # 8220shark tiros ocasionais & # 8221 após a chamada de natação. Além de carregar uma .45 quando em pé OOD, eu só carreguei uma arma uma outra vez. Nossa criptografia estava com defeito e precisava ir a uma loja segura na base de Charleston para manutenção. Como fui rapidamente rastreado para o programa Nuclear, já havia sido examinado para obter uma autorização de segurança secreta. Então, o oficial de operações e eu empacotamos a máquina em uma bolsa de lona trancada com orifícios de ventilação projetados para afundar se tivéssemos que jogá-la para fora do píer. Em seguida, cada um de nós carregou nossos .45s, pegou as 2 alças da bolsa e caminhou até o cais e através do pátio da Marinha até um prédio onde 2 fuzileiros navais armados assinaram por ele e o levaram para uma sala atrás de uma porta semelhante a um cofre.

Eu ganhei meu primeiro Dolphins depois de me qualificar como um Submariner no AMBERJACK em março de 1962. Na época, levava cerca de 7 meses para aprender todos os sistemas, controles e estações de observação necessários para a qualificação. Em junho, fui transferido para a Escola de Treinamento de Energia Nuclear em Bainbridge, Maryland, para ingressar na classe a partir daquele mês.

Após um interlúdio de três anos operando ao longo da costa leste e nas Índias Ocidentais, AMBERJACK fez outro cruzeiro pelo Mediterrâneo entre 7 de julho e 1 de novembro de 1964. Ela passou os 29 meses seguintes trabalhando em Charleston. Em 1967, o submarino fez uma implantação de três meses no Mediterrâneo entre 23 de abril e 24 de julho. Em 2 de setembro de 1969, após mais 25 meses de operações ao longo da costa leste e nas Índias Ocidentais, ela embarcou em sua última viagem baseada em Charleston em águas europeias, durante a qual ela participou de outro exercício da OTAN com unidades dos britânicos, canadenses e marinhas holandesas. Na conclusão do exercício, AMBERJACK visitou vários portos no norte da Europa antes de retornar a Charleston em 12 de dezembro de 1969.

Em 9 de julho de 1970, AMBERJACK chegou em seu novo porto de origem, Key West, sua base para o restante de seu serviço na Marinha americana. Ela fez seu último deslocamento para o Mediterrâneo entre 27 de novembro de 1972 e 30 de março de 1973. Em 17 de outubro de 1973, AMBERJACK foi desativado em Key West, e seu nome foi retirado da lista da Marinha. Nesse mesmo dia, foi transferida para a Marinha do Brasil e comissionada como CEARA (S-12). No final de 1984, ela ainda era ativa na Marinha do Brasil. Por volta de 1995, conheci um empresário em Brasília que estava na Reserva Naval do Brasil. Ele confirmou que o AMBERJACK / CEARA ainda estava em operação naquele momento.

Antes da conversão GUPPY. Ainda tem suas armas de convés. Após as modificações do GUPPY II. Após modificações completas da vela.

O USS Pickerel (SS524) também registrou uma subida muito íngreme. Aqui está um relato de sua experiência:

Pickerel (SS-524), emergindo em um ângulo de 48 graus para cima, de uma profundidade de 150 pés, durante testes na costa de Oahu, Havaí, em 1º de março de 1952. “O objetivo desta operação era permitir que os especialistas em submarinos da Marinha avaliar as capacidades e características do submarino GUPPY-snorkel. Esta foto foi tirada em Sabalo (SS-302). Seus sonaristas mantiveram Pickerel sob observação enquanto ela estava submersa e se preparando para emergir. Durante a manobra de Pickerel, o equipamento de sonar entregou o rumo relativo em constante mudança, o que permitiu aos fotógrafos fazer esta foto quando ela rompeu a superfície. ” Nota: O registro oficial da “superfície” na foto acima é que começou a 150 pés e atingiu um ângulo de 48 graus. De um membro da tripulação que comandava o leme durante esta evolução: “Começamos a 250 pés, velocidade de flanco. A ordem de superfície incluiu 'usar 60 graus' (a leitura mais alta no indicador de ângulo do tipo bolha). “Ultrapassamos e perdemos a bolha a 65 graus. O ângulo máximo (72 graus) foi calculado posteriormente pelas marcas da maré alta nos porões da Sala de Bombas. Pensando bem, mesmo com a proa projetando-se acima da água até a ponte fairwater, os parafusos não estariam muito acima de onde começamos, ainda nos empurrando para cima. “Primeira mensagem do Queenfish (SS-393) que nos acompanhava:‘ Qual é a gravidade específica dos porões da sua Sala de Torpedo? ’“ Como você pode imaginar, o C.O. era uma espécie de selvagem competitivo, tentando descobrir quais eram os limites para esses novos barcos GUPPY, depois de aguentar os barcos mais antigos da 2ª Guerra Mundial. E, tivemos que bater o recorde do Amberjack (SS-522) de 43 graus. ”


História da Linha do Tempo da Higiene

A palavra higiene vem de Hygeia, a deusa grega da saúde, que era filha de Esculápio, o deus da medicina. Desde a chegada da Revolução Industrial (c.1750-1850) e a descoberta da teoria dos germes das doenças na segunda metade do século XIX, a higiene e o saneamento têm estado na vanguarda da luta contra as doenças e enfermidades.

4000 AC - As mulheres egípcias aplicam mesdemet de galena (feito de minério de cobre e chumbo) e malaquita em seus rostos para obter cor e definição.

Para visualizar este vídeo, habilite o JavaScript e considere a possibilidade de atualizar para um navegador que suporte vídeo HTML5

3000 antes de Cristo - Os antigos romanos inventaram tanques e canos de água revestidos de chumbo. Os ricos pagavam a companhias privadas de água por sua água potável e outras necessidades hídricas, embora não fosse muito melhor do que o abastecimento de água que os camponeses usavam. A maioria dos sistemas de água era feita de troncos de olmo e canos domésticos revestidos de chumbo. A água era armazenada em grandes tanques de chumbo e frequentemente ficava estagnada.

2.800 a.C. - Alguns dos primeiros sinais de sabão ou produtos semelhantes a sabão foram encontrados em cilindros de argila durante a escavação da antiga Babilônia. Inscrições nas laterais dos cilindros dizem que as gorduras foram fervidas com cinzas, mas não se referem à finalidade do "sabão".

1550-1200 AC - Os antigos israelitas tinham um grande interesse pela higiene. Moisés deu aos israelitas leis detalhadas que governam a limpeza pessoal. Ele também relacionou a limpeza com a saúde e a purificação religiosa. Os relatos bíblicos sugerem que os israelitas sabiam que misturar cinzas e óleo produzia uma espécie de gel para o cabelo.

1500 AC - Registros mostram que os antigos egípcios tomavam banho regularmente. The Ebers Papyrus, um documento médico de cerca de 1500 a.C. descreve a combinação de óleos animais e vegetais com sais alcalinos para formar um material semelhante a sabão usado para tratar doenças de pele, bem como para lavar.

1200-200 AC - Os gregos antigos tomavam banho por razões estéticas e aparentemente não usavam sabão. Em vez disso, eles limparam seus corpos com blocos de argila, areia, pedra-pomes e cinzas, depois se ungiram com óleo e rasparam o machado de óleo e a sujeira com um instrumento de metal conhecido como strigil. Eles também usaram óleo com cinzas.

1000 AC - Os gregos branqueavam a pele com giz ou pó facial de chumbo e faziam batom cru de argila ocre misturada com ferro vermelho.

600 AC - Os gregos antigos começam a usar os banhos públicos. Em O Livro do Banho, Françoise de Bonneville escreveu: “A história dos banhos públicos começa na Grécia no século VI aC”, onde homens e mulheres se lavavam em bacias perto de locais de exercício. Os antigos gregos também começaram a usar penicos. Usados ​​desde pelo menos 600 aC pelos gregos antigos, eles têm sido usados ​​até por volta do século 18 em todo o mundo.

300 AC - Antigos romanos ricos começaram a usar técnicas de limpeza em seus hábitos de toalete. Os materiais comuns usados ​​eram lã e água de rosas. Cerca de 100 anos depois, os romanos mais comuns usavam uma esponja embebida em água salgada.

19 AC - Romanos mais antigos começaram a usar os banhos públicos. Agripa (o braço direito do Imperador Augusto) construiu os primeiros banhos públicos chamados Thermae no ano 19 AC. Eles aumentaram em número rapidamente, pelo menos 170 operavam em Roma no ano 33 aC, com mais de 800 operando no auge de sua popularidade.

27 AC - Os antigos romanos acreditavam na capacidade da urina de remover manchas. Até o período medieval, as pessoas usavam soda cáustica, feita de cinzas e urina, para limpar suas roupas.

100 DC - Os antigos romanos desenvolveram fossas, geralmente no porão ou no jardim. Em 1183 aC, o piso do salão do imperador romano desabou, mandando os convidados para o jantar na fossa onde alguns deles, infelizmente, se afogaram.

400 DC - Na Grã-Bretanha medieval, a população havia começado vários hábitos para manter os dentes limpos. Isso incluía enxaguar a boca com água ou uma mistura de vinagre e hortelã para remover a gosma. Folhas de louro embebidas em água de flor de laranjeira também eram usadas, e os dentes muitas vezes também eram esfregados com um pano limpo.

1110 DC - Na Grã-Bretanha, um panfleto recomendava que as pessoas mantivessem os dentes brancos esfregando-os com ossos de peixe em pó e depois enxaguando a boca com uma mistura de vinagre e ácido sulfúrico!

1308 DC - Na Grã-Bretanha era comum o seu barbeiro remover dentes problemáticos! Se os tratamentos básicos não resolvessem o problema, o barbeiro o estaria removendo, sem a ajuda da novocaína! Um guia para barbeiros foi criado em 1308, ensinando técnicas de cirurgia de barbeiros.

1346-1353 DC - A pandemia da Peste Negra varreu a Europa matando 40-50% da população durante um período de 4 anos. Provavelmente originário da Ásia Central, provavelmente se espalhou por meio de rotas comerciais.

1400 DC - Os chineses inventaram o papel higiênico.

1500-1600 DC - Rostos pálidos estavam na moda durante o reinado de Elizabeth I. Ceruse foi a escolha de maquiagem de base para homens e mulheres na era elisibetana, pois deu a eles uma aparência suave e pálida. No entanto, ele continha chumbo que penetrou no corpo através da pele, causando envenenamento. Varientes com chumbo têm sido usados ​​há milhares de anos.

1566 - O rei James VI da Escócia usou as mesmas roupas por meses a fio, até dormindo com elas de vez em quando. Ele também manteve o mesmo chapéu 24 horas por dia até que ele se desfez! Ele não tomou banho porque achava que era ruim para sua saúde!

1586- Sir John Harington inventou uma válvula que, quando puxada, liberava a água de um vaso sanitário. Albert Giblin detém a patente britânica de 1819 para o Preventor de Resíduos de Água Silent Valveless, um sistema que permitia uma descarga eficaz de uma sanita. Infelizmente não havia Esgotos ou água corrente na época, então não foi possível usar de forma prática.

1600 - Novos desenvolvimentos na limpeza dos dentes começaram a aparecer na Grã-Bretanha. Esfregar os dentes com as cinzas do alecrim era comum, e a salva em pó era usada para esfregar os dentes como um agente de clareamento. Vinagre e vinho também foram misturados para formar um enxaguatório bucal.

1600-1700 - As mesmas práticas de limpeza estavam em uso, mas os ‘barbeiros’ (também conhecidos como dentistas) começaram a aprender mais sobre odontologia. As primeiras dentaduras, coroas de ouro e dentes de porcelana chegaram no século XVIII. 1790 trouxe o motor de pé dentário que girava uma broca para limpar cáries. A primeira cadeira odontológica foi feita no final dos anos 1700.

1750 - Uma carta de Lord Chesterfield para seu filho pede o uso de uma esponja e água morna para esfregar os dentes todas as manhãs. A recomendação de usar a própria urina na França foi amplamente desprezada por Fouchard, o dentista francês. Pólvora e alume também eram recomendados.

1789 - As pessoas já estavam preocupadas com a moda durante o século 18. Quando suas sobrancelhas não pareciam elegantes, muitas vezes as mascaravam com pequenos pedaços de pele de rato. Poemas já em 1718 insinuaram seu uso.

1834 - The 1834 London Medical and Surgical Journal descreve fortes dores de estômago em pacientes sem evidência de doença. Isso os levou a acreditar que a "cólica do pintor" era uma "afecção nervosa" dos intestinos que ocorre quando o chumbo "é absorvido pelo corpo".

1846 - Os banhos públicos eram populares desde o século XIII. Devido à escassez de lenha, o banho tornou-se uma prática cara. Famílias inteiras e amigos tiveram que tomar banho, ou muitos deles permaneceriam sujos.

1847 - Um médico chamado Ignaz Semmelwis descobriu que a febre puerperal ocorreu em mulheres que foram assistidas por estudantes de medicina. Ele descobriu que estudantes que ajudaram no parto o fizeram após autópsias. Depois de instituir uma política rígida de lavagem das mãos, as mortes diminuíram 20 vezes em 3 meses.

1837 – 1901 - Um nariz-gay era tipicamente um pequeno buquê de flores ou um sachê de ervas. Ele era preso ao pulso em uma lapela ou simplesmente segurado na mão. Também seria segurado sob o nariz para as pessoas que caminham no meio de multidões. Nariz-gays ganharam popularidade durante o reinado da Rainha Vitória.

1854 - Na Inglaterra de meados do século 18, surtos de cólera levaram a uma epidemia. Um médico chamado John Snow observou que a cólera parecia se espalhar por meio de águas contaminadas com esgoto. Isso foi notado principalmente em torno de uma bomba d'água em Broad Street, Londres. John removeu a manivela da bomba e a propagação foi contida instantaneamente.

1858 - O clima quente atingiu a capital em 1858, secando o rio Tamisa e deixando esgoto puro e outros resíduos empilhados e expostos. Este foi o início de "The Great Stink", forçando o Parlamento a fechar por hoje e, eventualmente, iniciar uma reforma dos sistemas de esgoto e fossas.

1861 - O banheiro moderno com descarga. Thomas Crapper não inventou o autoclismo, mas é conhecido por ter feito grandes contribuições para o seu desenvolvimento ao implantar um sistema séptico moderno que bombeia águas sujas para fora da cidade. No entanto, este assunto em particular ainda é muito debatido.

1920 - Lysol era vendido como um desinfetante genital e método de controle de natalidade. Os anúncios do Lysol proclamaram uma série de benefícios para todas as necessidades ginecológicas e foi a principal forma de controle de natalidade de 1930 a 1960. O Lysol é, na verdade, um veneno cáustico que causa queimaduras e coceira após a primeira gota - a maioria das mulheres o aplicou na pele por 30 anos.


Quais eram os princípios operacionais do MITI do Japão durante as décadas de 1950 e 60? - História

Pareceu, então, um momento oportuno para fazer uma pausa e refletir sobre como chegamos aqui. Como acontece com todos esses empreendimentos, a jornada tem sido em parte estratégica e em parte fortuita, mas sustentando tudo isso tem sido o compromisso de aprofundar nosso conhecimento de manufatura em seu sentido mais amplo, e transmitir esse conhecimento para a indústria e o governo e para sucessivas gerações de estudantes talentosos .

Em muitos aspectos, o IfM está seguindo os passos de James Stuart, o primeiro & lsquotrue & rsquo Professor de Engenharia em Cambridge (1875-1890). Um inovador educacional e um defensor apaixonado de colocar a teoria em prática, ele desafiou as convenções de sua época. Diante do que considerava instalações de ensino inadequadas, sem se deixar abater, montou uma oficina para seus alunos em uma cabana de madeira e, menos popularmente, instalou uma fundição na Free School Lane. A história da manufatura em Cambridge está imbuída de seu espírito indomável.

1966: alunos do primeiro Curso Avançado em Métodos de Produção e Gestão (agora MPhil Sistemas Industriais, Manufatura e Gestão)

ANOS 1950, 60 E 70

O início da educação em manufatura em Cambridge: o Curso Avançado em Métodos de Produção e Gerenciamento.

Na década de 1950, a Grã-Bretanha ainda era um Golias industrial. A manufatura respondeu por cerca de um terço da produção nacional e empregou 40 por cento da força de trabalho. Ele desempenhou um papel vital na reconstrução da Grã-Bretanha do pós-guerra, mas por uma série de razões & ndash incluindo a falta de competição séria e uma expectativa de que proporcionaria altos níveis de emprego & ndash havia pouco incentivo para as empresas modernizarem suas fábricas ou melhorarem as habilidades de seus gerentes e trabalhadores.

Naquela época, era norma para os graduados em engenharia irem para a indústria como “aprendizes de graduação” por um período de até dois anos. Na prática, isso costumava ser mal organizado, resultando em decepção e frustração para todos os envolvidos.

Sir William Hawthorne, Professor de Termodinâmica Aplicada (e mais tarde Chefe do Departamento e Mestre do Churchill College), não ficou impressionado com o treinamento de pós-graduação. Ele comparou o aprendizado a um desagradável ritual de iniciação & ldquoin, no qual as pessoas esfregavam o nariz e depois esfregavam o nariz de outras pessoas & rdquo. e vendo o que eles fizeram & rdquo. Hawthorne percebeu que essa abordagem perpetuou a prática atual e inibiu a inovação e o empreendedorismo.

Ele decidiu que Cambridge poderia e deveria & ndash fazer algo a respeito e pediu a seus colegas John Reddaway e David Marples que planejassem alguns cursos industriais de curta duração para graduados. Isso incluiu palestras, discussões e visitas ao local e observou como toda uma empresa operava e como organizava seu projeto de engenharia, controle de produção, bem-estar e marketing. E os cursos pareciam funcionar. Eles foram executados com muito sucesso para o fabricante de motores de aeronaves, D. Napier & amp Son Ltd. e com base nessa experiência, Reddaway, Marples e Napier & rsquos chefe de pessoal J. D. A. Radford, escreveu um artigo sobre & ldquoAn abordagem às técnicas de treinamento de pós-graduação & rdquo. Eles apresentaram este artigo à Instituição de Engenheiros Mecânicos em 1956 com a sugestão de que ela assumiria o funcionamento desses cursos e os tornaria amplamente disponíveis. Embora os cursos & ndash e o artigo & ndash tenham sido bem recebidos, sem nenhum senso de urgência sobre a necessidade de melhorar a prática atual, a empresa sucumbiu à falta de financiamento. Nesse ínterim, Reddaway foi convidado pela Universidade a produzir um plano para um curso semelhante em estilo e conteúdo, que duraria um ano. Isso ficou conhecido como Plano Reddaway. Mas não havia dinheiro para recrutar alguém para executá-lo, então o plano ganhou poeira durante a maior parte de dez anos.

Durante aqueles dez anos, a preocupação estava começando a aumentar em relação à produtividade atrasada da Grã-Bretanha e sua participação em declínio nos mercados de exportação mundiais. Governos sucessivos embarcaram em uma série de intervenções políticas e a manufatura se tornou uma espécie de preocupação nacional. Quando John Reddaway foi convidado a falar sobre seu plano em uma conferência da Cambridge University Engineering Association em 1965, talvez houvesse um imperativo maior de mudança. Esteve presente Sir Eric Mensforth, presidente da Westland Aircraft. Coincidentemente, Reddaway fora aprendiz em Westland e quando Mensforth conseguiu uma bolsa de estudos em Cambridge, Reddaway fora o primeiro a receber. Mensforth ofereceu à Universidade £ 5.000 se eles conseguissem lançar o Plano Reddaway.

Também na platéia estava o ex-aluno de Cambridge, Mike Sharman, que imediatamente se ofereceu para deixar seu ensino na Hatfield Polytechnic para ministrar o curso, embora Mensforth & rsquos contribuísse com apenas dois anos de financiamento.

O Curso Avançado de Métodos de Produção e Gestão entrou em funcionamento no ano seguinte, com a primeira admissão de 12 alunos. Com duração de um ano calendário completo, e projetado para emular tarefas e disciplinas profissionais ao invés de estudantes, o curso envolveu uma série intensa de projetos reais de duas a três semanas em fábricas em todo o país, intercalados com palestras de profissionais e também de acadêmicos.

Os projetos, normalmente analisando e melhorando as operações da fábrica, quase sempre foram bem-sucedidos - às vezes de maneira espetacular. A indústria respondeu bem ao ver esses alunos se familiarizando com os aspectos práticos da engenharia e da manufatura, e os graduados do curso eram, e continuam sendo, muito procurados. A noção de que entrar em uma fábrica e empreender projetos curtos e intensivos seria uma maneira eficaz de aprender era nada menos do que isso e lhes deu a confiança para enfrentar tarefas cada vez mais difíceis, desenvolvendo-as muito rapidamente em pessoas que realmente poderiam se tornar & lsquocaptains de indústria & rsquo.

Mike Gregory fez o curso em seu quarto ano: & ldquoPara muitos de nós, que conhecemos o mundo da engenharia e da manufatura por meio do ACPMM, a experiência foi literalmente uma mudança de vida. Nós, estudantes, fomos levados pelo entusiasmo de Mike Sharman e rsquos, para não mencionar a emoção de viajar pelo Reino Unido e pelo exterior, visitando e trabalhando em todos os tipos de fábricas. Como fazer um Volkswagen Beetle, como fazer uma raquete de tênis, como colocar o sabor dos dois lados de uma batata frita & ndash aprendemos tudo isso e muito, muito mais. & Rdquo

Em 1987, uma opção de design foi adicionada à ACPMM e ela mudou seu nome para Curso Avançado de Design, Fabricação e Gerenciamento (ACDMM). Isso foi em resposta ao crescente reconhecimento da importância do design como um diferencial competitivo.

Mas o caminho do ACPMM / ACDMM nem sempre correu bem. Por muitos anos o curso ocupou uma posição anômala dentro da Universidade, que permanecia desconfiada e periodicamente tentava encerrá-lo. Até 1984, quando o Wolfson College concordou em aceitá-lo, ele não tinha uma casa adequada na Universidade, o que significava que os alunos não eram membros da Universidade. O financiamento era um problema perpétuo, especialmente quando as universidades eram obrigadas a ser mais responsáveis ​​por seus gastos. Por muitos anos, a ACPMM não teve uma qualificação associada a ela e o University Grants Committee (UCG) financiaria universidades apenas com base no número de alunos que receberam graus ou diplomas.

Outro aspecto incomum do curso foi que, na década de 1970, ele desenvolveu relacionamentos primeiro com a Universidade de Lancaster e depois com Durham, como uma forma de expandir sua experiência de ensino e estender seu alcance geográfico em empresas em toda a Grã-Bretanha. Isso se tornou uma complicação adicional quando os fundos começaram a ser alocados com base no número de alunos e a tarefa administrativa de compartilhar o financiamento de forma equitativa entre os parceiros se mostrou muito difícil de resolver. Em 1996, Cambridge foi deixada para seguir em frente por conta própria.

Alunos do ano 17 da ACPMM saindo de uma mina

O problema da qualificação foi resolvido quando o professor Colin Andrew chegou, em meados dos anos 80, e começou a elaborar um exame que permitiria a concessão de um diploma. Ele conseguiu persuadir Mike Sharman e a Universidade de que isso era uma boa coisa a se fazer. Mas, à medida que um obstáculo era superado, outro surgia. Outras deficiências de financiamento surgiram à medida que as entidades adjudicantes ofereceram menos bolsas de estudo e cortaram o apoio ao pessoal. Nesse ambiente não totalmente favorável, a ACDMM estava procurando aumentar o número de alunos. Neste ponto, David Sainsbury (agora Lord Sainsbury de Turville e Chanceler da Universidade) e a Fundação de Caridade Gatsby intervieram. A continuação do ACDMM era consistente com um dos objetivos de caridade primários de Gatsby & rsquos & ndash para fortalecer as habilidades de ciência e engenharia dentro do Reino Unido & ndash, então Gatsby concordou em fornecer financiamento por um período de cinco anos.

Mike Sharman finalmente se aposentou em 1995, tendo recebido um MBE no ano anterior por seus empreendimentos. Tom Ridgman chegou da Universidade de Warwick com uma carreira de 20 anos na indústria automotiva atrás dele e assumiu como Diretor do Curso em 1996. Em 2004, ainda enfrentando desafios de financiamento e após uma revisão completa das opções, o curso foi renomeado novamente & ndash Sistemas Industriais, Fabricação e Gerenciamento (ISMM) & ndash e tornou-se MPhil. Foi reduzido para nove meses intensivos, concluindo com uma grande dissertação. Isso resultou em um aumento imediato no número de alunos e o curso hoje, sob a supervisão de Simon Pattinson, tem inscrições em excesso por um fator de cinco, e atrai candidatos de um calibre excepcionalmente alto de todo o mundo.

Alunos recentes do ISMM em viagem de estudos no exterior

Um novo curso para graduandos: Tripos de Engenharia de Produção

Nos anos 1950 e 60, um curso de graduação em engenharia em Cambridge tratava apenas de ciências e matemática, e a administração ndash era praticamente um parente pobre. David Newland, que passou a ser Chefe de Departamento entre 1996 e 2002, lembra que, como estudante de graduação na década de 1950, havia apenas duas palestras por semana sobre gestão, programadas para as manhãs de sábado, & ldquowhich era quando a maioria das pessoas praticava esportes e, em qualquer caso, havia uma percepção de que você poderia simplesmente responder às perguntas do exame. & rdquo Na década de 1970, os fabricantes britânicos estavam vendo sua participação nos mercados de exportação globais continuar a declinar e enfrentavam uma série de desafios domésticos, principalmente na área das relações de trabalho.

Os governos continuaram a buscar políticas industriais e anunciaram que a University Grants Commission consideraria inscrições para um curso de graduação em engenharia de quatro anos, em vez dos três anos convencionais, contanto que o foco fosse a preparação de graduados para a indústria ao invés de pesquisa. O Departamento de Engenharia respondeu com uma proposta, que foi aceita, de instituir o Tripos de Engenharia de Produção (PET). Isso foi a primeira vez para Cambridge: permitiu que os alunos de engenharia se especializassem nos últimos dois anos em aprender sobre manufatura, tanto da perspectiva da engenharia quanto da gestão. A intenção era equipar esses alunos brilhantes com o conhecimento teórico e prático e a capacidade de resolver problemas industriais reais e as habilidades e experiência para se manterem em uma configuração de fábrica.

Mike Gregory, que havia sido recrutado em 1975 por Mike Sharman para trabalhar na ACPMM, mudou-se para criar o novo curso PET. Em 1988, a PET mudou seu nome para Manufacturing Engineering Tripos (MET) para refletir a amplitude de sua abordagem. Desde os primeiros dias dos cursos de curta duração da John Reddaway & rsquos, houve um reconhecimento de que a manufatura estava preocupada com muito mais do que apenas & lsquoproduction & rsquo e abrangia uma gama de atividades que incluía a compreensão de mercados e tecnologias, design e desempenho de produtos e processos, gestão da cadeia de suprimentos e entrega de serviços .

Mike Gregory e alunos MET

no exterior
projeto de pesquisa, 1988.

Em 1997, Mike, como veremos, estava cada vez mais ocupado e passou a execução do curso para Ken Platts.Ken conduziu o MET em sua primeira avaliação de qualidade de ensino antes de entregá-lo primeiro a Jim Platts e depois a Claire Barlow, que o administrou com sucesso por muitos anos. Hoje os alunos do MET, como o & lsquoISMMs & rsquo, são muito procurados e o curso produziu uma série de ex-alunos ilustres que lançaram start-ups de sucesso, transformaram organizações de manufatura existentes, desenvolveram novas tecnologias e entregaram uma ampla gama de novos produtos e serviços em todo o mundo.

Década de 1980 e 1990

Pesquisa e prática andam de mãos dadas

Durante as décadas de 1980 e 1990, a manufatura do Reino Unido continuou a encolher como proporção da produção nacional. Mas se a manufatura no Reino Unido estava em declínio, estava proliferando em escala e complexidade em outros lugares. O Japão, em particular, estava combinando automação com práticas de trabalho inovadoras e estava alcançando resultados espetaculares tanto em termos de qualidade quanto de produtividade. Fabricantes de todas as nacionalidades estavam se globalizando, construindo novas fábricas nos países em desenvolvimento, dando-lhes acesso a novos mercados de rápido crescimento e fontes de mão de obra mais baratas. Agora os fabricantes estavam no negócio de gerenciar redes de produção globais interconectadas e ter uma visão ainda mais ampla de seu papel e subcontratar partes de suas operações para outros negócios.

Enquanto as grandes empresas estavam se tornando cada vez mais internacionais, o empreendedorismo prosperava perto de casa. O & lsquoCambridge Phenomenon & rsquo & ndash um cluster de tecnologia, ciências da vida e start-ups baseadas em serviços & ndash estava em andamento e começando a atrair a atenção dos pesquisadores.

Quando Colin Andrew foi nomeado Professor de Mecânica em 1986, o nome da cadeira, a seu pedido, foi alterado para Engenharia de Manufatura. Isso sinalizou uma nova direção para o Departamento e um crescente reconhecimento de que a manufatura era um assunto importante para o envolvimento acadêmico. Na mesma época, Mike Gregory admitiu ter a ambição de estabelecer um instituto de manufatura. Colin simpatizou com a ideia, mas aconselhou que um histórico acadêmico convincente era um pré-requisito para tal tarefa. Com energia característica, Mike aceitou o desafio e começou a desenvolver um conjunto de atividades de pesquisa que refletissem a ampla definição de manufatura que já influenciava tanto o ensino de graduação quanto de pós-graduação.

Dez anos depois, as fundações estavam estabelecidas. Em 1994, após a aposentadoria de Colin Andrewsquos, Mike foi nomeado Professor de Fabricação e Chefe de uma nova Divisão de Fabricação e Gerenciamento do Departamento de Engenharia. Um embrionário Grupo de Pesquisa de Sistemas de Fabricação estava começando a fazer seu nome. Se James Stuart estivesse por perto, ele teria reconhecido uma outra força imparável.

Pesquisa de gestão

Após uma série de consultas industriais e acadêmicas em 1985 e 1986, uma Bolsa de Pesquisa EPSRC, Auditoria de Fabricação, foi ganha. Ele explorou como as estratégias de manufatura podem ser compreendidas e projetadas em um contexto de negócios. O recrutamento de Ken Platts dos laboratórios de pesquisa da TI & rsquos em 1987, e sua busca pelo projeto como um tópico de doutorado, resultou em um foco acadêmico mais aguçado e na publicação de uma apostila em nome do Departamento de Comércio e Indústria, Manufatura Competitiva: uma prática abordagem para o desenvolvimento da estratégia de manufatura.

A nomeação de Ken & rsquos foi importante de várias maneiras. Estabeleceu o precedente para trazer pessoas com experiência industrial para cargos de pesquisa e incorporou o princípio de que a pesquisa de manufatura em Cambridge deve ser útil para a indústria, tanto em seu assunto como em seus resultados. A pasta de trabalho tornou-se o modelo para uma forma distinta de trabalhar. Para cada grande projeto de pesquisa, seria produzido um livro que daria aos gerentes que trabalham na indústria um conjunto de ferramentas e abordagens que eles próprios poderiam aplicar. O fato de que essa primeira tentativa vendeu cerca de 10.000 cópias também foi útil para estabelecer as credenciais de Cambridge.

O trabalho de Ken & rsquos demonstrou o potencial para adotar uma abordagem de & lsquoaction research & rsquo para o gerenciamento. Em outras palavras, em vez de depender de pesquisas e estudos de caso, por mais importantes que fossem, os pesquisadores levariam seus modelos teóricos para as empresas e os testariam em situações da vida real. Essa linha de pesquisa levou ao Centro de Estratégia e Desempenho e estabeleceu uma abordagem que seria amplamente adotada em todo o IfM. O trabalho inicial de Ken & rsquos também atraiu financiamento do Conselho de Pesquisa de Engenharia e Ciências Físicas. Esta grande doação contínua permitiu o recrutamento de pesquisadores adicionais, incluindo um Andy Neely, e estabeleceu Cambridge como um jogador sério no campo de estratégia de manufatura e medição de desempenho.

A próxima nomeação de pesquisa-chave foi de David Probert em 1992, outro ex-aluno da ACPMM que, como Ken, veio da indústria. Com base nas bases estabelecidas por Mike e Ken na estratégia de manufatura, David identificou e se concentrou no que estava se tornando um enigma cada vez mais comum: se um fabricante deveria fazer um produto ou uma peça por conta própria ou terceirizá-lo para um fornecedor. O trabalho de David & rsquos nessa área ganhou força imediata com as empresas e sua estrutura foi adotada pela Rolls-Royce, entre outros. Isso levou diretamente ao trabalho financiado pelo EPSRC em gestão de tecnologia, que desde então se desenvolveu em um programa de pesquisa amplo e de grande sucesso. O foco principal tem sido a criação de sistemas robustos de gerenciamento de tecnologia para ajudar as empresas a transformar novas ideias em produtos e serviços de sucesso. Esse trabalho se aglutinou em torno de cinco processos-chave: como identificar, selecionar, adquirir, explorar e proteger novas tecnologias. A força nesta área foi reforçada pela adição da experiência de James Moultrie & rsquos em design industrial e desenvolvimento de novos produtos e, mais recentemente, pela chegada de Frank Tietze com seu interesse de pesquisa em inovação e propriedade intelectual. A pesquisa em ferramentas de gerenciamento de negócios amplamente aplicáveis ​​também surgiu como uma área de investigação frutífera, com Rob Phaal estabelecendo o IfM como um centro de especialização em roadmapping.

Grande parte dessa atividade de pesquisa tem sido mais aplicável a empresas de grande e médio porte, mas também tem havido um interesse significativo em atividades baseadas em tecnologia mais empreendedoras, não menos as que ocorrem no & lsquoCambridge Cluster & rsquo e os desafios inerentes à tentativa de comercializar novas tecnologias . Este trabalho foi iniciado por Elizabeth Garnsey na década de 1980 e é continuado até hoje por Tim Minshall e seu Grupo de Empresa de Tecnologia.

Em 1994, Yongjiang Shi se juntou a esse pequeno grupo de pesquisadores para iniciar seu doutorado em redes internacionais de manufatura. Este foi o início de uma nova vertente de pesquisa que inicialmente se concentrou na & lsquomanufacturing footprint & rsquo. Seu trabalho pioneiro nesta área levou a uma grande colaboração com a Caterpillar e a IfM & rsquos Industry Links Unit (mais sobre isso posteriormente) e o desenvolvimento de um conjunto de abordagens que ajudaria as empresas multinacionais a & lsquomake as coisas certas nos lugares certos & rsquo. Como a manufatura internacional tornou-se cada vez mais complexa e dispersa, a pesquisa, sob a liderança de Jag Srai, foi ampliada para abranger cadeias de suprimentos de ponta a ponta, projetando redes de valor globais e criando redes mais resilientes e sustentáveis. Assim como no trabalho inicial sobre pegada de manufatura, essa nova pesquisa é realizada em parceria com colaboradores industriais.

Pesquisa de tecnologia

Um progresso significativo foi feito na pesquisa de gestão e operações quando Duncan McFarlane se juntou à divisão incipiente em 1995 trazendo sua experiência em automação industrial e adicionando uma dimensão técnica importante para a equipe. Duncan estabeleceu o Cambridge Auto-ID Lab, um de um grupo de sete laboratórios em todo o mundo, liderando o trabalho de rastreamento e rastreamento de objetos na cadeia de suprimentos usando RFID. Foi esse grupo que cunhou a expressão & lsquointernet das coisas & rsquo e passou a liderar pesquisas nessa área. A equipe de Duncan & rsquos posteriormente se expandiu para abranger uma gama mais ampla de interesses, observando como sistemas inteligentes e dados inteligentes tanto dentro das fábricas quanto entre cadeias de suprimentos podem ser usados ​​para criar produtos e serviços mais inteligentes. O trabalho de Ajith Parlikad & rsquos em gerenciamento de ativos se tornou uma parte importante deste programa de pesquisa e também é parte integrante do trabalho inovador que o Cambridge & rsquos Centre for Smart Infrastructure and Construction está fazendo para melhorar a infraestrutura e o ambiente construído do UK & rsquos.

Instalando robôs em Mill Lane

Os processos de produção eram claramente um tópico importante para um programa de pesquisa de manufatura e um novo grupo com base no trabalho de toda a Divisão foi criado para abordá-lo no final da década de 1990. Em 2001, a GKN financiou uma nova cadeira em Engenharia de Manufatura para a qual Ian Hutchings foi nomeado. Ian veio do Departamento de Ciência de Materiais e Metalurgia e tinha uma reputação internacional por seu trabalho em tribologia. Ele desenvolveu ainda mais o Grupo de Processos de Produção, que reuniu uma série de atividades de pesquisa, incluindo o trabalho de Claire Barlow & rsquos no desenvolvimento de processos mais sustentáveis. Em 2005, Ian criou o Centro de Pesquisa Inkjet com financiamento EPSRC para trabalhar com um grupo de empresas do Reino Unido, incluindo várias no cluster local de Cambridge, para realizar pesquisas na ciência por trás desta importante tecnologia e seu uso como um processo de produção .

Em 2003, Bill O & rsquoNeill ingressou no IfM da Universidade de Liverpool, trazendo com ele seu EPSRC Innovative Manufacturing Research Centre (IMRC) em microengenharia baseada em laser. Este se tornou o Centro de Fotônica Industrial que agora é, com a Cranfield University, o centro EPSRC para Fabricação Inovadora em Ultra Precisão e o Centro EPSRC para Treinamento de Doutorado em Ultra Precisão. Tanto o Laboratório de Informação Distribuída e Automação quanto o Centro de Fotônica Industrial foram capazes de comercializar sua propriedade intelectual por meio de spin-outs, o primeiro criando a RedBite, uma empresa de soluções & lsquotrack e trace & rsquo e a última, Laser Fusion Technologies, que usa fusão a frio a laser tecnologia de pulverização para uma ampla gama de aplicações de energia, manufatura e aeroespacial.

Uma nova identidade

A ambição de Mike & rsquos de criar um instituto de manufatura finalmente se concretizou em 1998, quando uma aliança foi firmada com a Foundation for Manufacturing and Industry (the FM & ampI). Esta foi uma organização criada para ajudar as empresas a compreender como as considerações econômicas e políticas afetariam seus negócios e para melhorar o perfil público da manufatura no Reino Unido. Trouxe consigo uma grande rede de parceiros industriais e complementou a Division & rsquos agora considerável força e amplitude em pesquisa de manufatura e gerenciamento e sua embrionária Industry Links Unit (veja abaixo). O Institute for Manufacturing nasceu, integrado no Departamento de Engenharia e na Divisão de Manufatura e Gestão, mas com um caráter distinto e um conjunto de capacidades que lhe permitiram enfrentar os desafios que os fabricantes estavam enfrentando e o contexto político em que estavam operando.

Pesquisa de política

Uma das aspirações de Mike & rsquos para o novo Instituto era usar sua experiência de manufatura & ndash estratégica e técnica & ndash para apoiar o pensamento do governo e aumentar a consciência da importância contínua da manufatura no contexto de uma economia cada vez mais orientada para os serviços. A fusão com a FM & ampI adicionou uma dimensão econômica e política ao IfM. Isso se transformaria em uma importante linha de pesquisa, formulando a pergunta fundamental: por que alguns países são melhores do que outros na tradução da pesquisa científica e de engenharia em novas indústrias e prosperidade econômica? A equipe de pesquisa de políticas do IfM & rsquos, fundada por Finbarr Livesey e hoje liderada por Eoin O & rsquoSullivan, está muito ativamente envolvida com a comunidade política no tratamento dessas questões (consulte a página 6).

Como acontece com todos os empreendimentos do IfM, a intenção era que a pesquisa nessa área fosse útil. Baseia-se, portanto, no envolvimento prático com os formuladores de políticas para entender suas necessidades e fornecer resultados que os apoiem em suas tomadas de decisão. Em 2003, Mike também estabeleceu o Manufacturing Professors & rsquo Forum, um evento anual que reúne os principais acadêmicos de manufatura, industriais e legisladores do Reino Unido para desenvolver um entendimento comum de como criar as condições nas quais a manufatura no Reino Unido possa florescer.

Colocando a pesquisa em prática

A noção de que as pesquisas realizadas no IfM deveriam ter um valor real para seus colaboradores industriais e governamentais foi consagrada na criação de uma Unidade de Enlaces Industriais (ILU), que havia sido instalada em 1997, um ano antes do surgimento do IfM . Naquela época, estimular colaborações frutíferas entre universidades e indústrias não era uma prioridade para o financiamento público. A Fundação Gatsby Charitable, que anteriormente desempenhou um papel crítico na manutenção da ACPMM em tempos financeiros difíceis, acreditava que promover tais interações era a chave para o desenvolvimento do crescimento econômico de longo prazo e que a nova unidade proposta poderia ter um papel útil a desempenhar neste que diz respeito. Forneceu financiamento inicial para a ILU que lhe permitiu desenvolver as três principais vertentes de atividade destinadas a facilitar a transferência de conhecimento: educação, consultoria e publicações. Gatsby também encorajou a ILU a se colocar em uma posição comercial clara, estabelecendo uma empresa separada, de propriedade da Universidade (Cambridge Manufacturing Industry Links ou CMIL), por meio da qual poderia gerar receita das atividades da ILU & rsquos para financiar pesquisas futuras.

A CMIL foi nutrida com sucesso em seus primeiros anos, primeiro por John Lucas e depois por Paul Christodoulou. Em 2003, Peter Templeton foi recrutado como CEO e, em 2009, o alcance e a escala de suas atividades haviam crescido a tal ponto que foi tomada a decisão de fundir a ILU e a CMIL na IfM Education and Consultancy Services Limited. Isso criou uma estrutura organizacional mais clara e um nome que & lsquodoes o que diz na lata & rsquo.

Serviços de educação

O objetivo do CMIL era transferir conhecimento e habilidades para pessoas que trabalham na indústria por meio de uma variedade de cursos, alguns dos quais eram workshops práticos de um ou dois dias, enquanto outros eram programas mais longos, como o Manufacturing Leaders & rsquo Program, um curso de dois anos para talentosos - engenheiros de carreira e tecnólogos com potencial para assumir funções mais estratégicas na indústria. Em 2006, a CMIL criou um mestrado em Inovação Industrial, Educação e Gestão para a Universidade de Trinidad e Tobago, que funcionou com muito sucesso até 2013 e demonstrou capacidade para exportar a prática educacional do IfM. A criação de cursos personalizados para empresas muito grandes foi & ndash e continua a ser & ndash uma atividade importante.

Serviços de consultoria

Ao nomear & lsquoindustrial fellows & rsquo, muitos deles ex-alunos da ACPMM e MET, a CMIL foi capaz de estabelecer um braço de consultoria que poderia disseminar e aplicar os resultados da pesquisa IfM & rsquos a empresas de todos os tamanhos, de multinacionais a start-ups e com governos nacionais e regionais. Inicialmente, grande parte do foco estava em fabricantes de pequeno e médio porte que, de acordo com o ex-presidente e CEO da Jaguar Land Rover e amigo de longa data e conselheiro do IfM, Bob Dover, foram amplamente negligenciados pelos acadêmicos. A intenção era dar um rigor acadêmico às decisões que as empresas estavam tomando, embasado em pesquisas do Centro de Estratégia e Performance. Isso levou ao desenvolvimento da ferramenta ECS & rsquos & lsquoprioritisation & rsquo, que agora é usada por mais de 750 empresas e sua abordagem & lsquofast-start & rsquo para o desenvolvimento de estratégias de negócios.

O programa de consultoria tem crescido continuamente nos últimos anos, entregando projetos que tiveram um impacto real nas organizações envolvidas e no ambiente de manufatura em geral. O IfM ECS, por exemplo, facilitou muitos dos roteiros que definem a visão e os planos de implementação para novas tecnologias no Reino Unido, como biologia sintética, robótica e sistemas autônomos e tecnologias quânticas. Em 2012, foi comissionado pelo Technology Strategy Board (agora Innovate UK) para realizar um exercício de paisagismo procurando oportunidades de manufatura de alto valor em todo o Reino Unido. Atualmente está empenhada em & lsquorefreshing & rsquo a paisagem para estabelecer prioridades claras para o governo e, em particular, para identificar áreas onde o investimento em capacidades de manufatura pode ser maximizado coordenando os esforços das agências de entrega.

IfM ECS também realiza uma ampla gama de atividades de consultoria baseada em pesquisa com empresas, incluindo grandes projetos com multinacionais para redesenhar suas redes de produção ou cadeias de abastecimento ponta a ponta. Trabalha com empresas de todas as formas e tamanhos para alinhar suas estratégias de tecnologia e negócios e ajudá-las a transformar novas tecnologias em produtos ou serviços de sucesso.

2000s AND 2010s

Expansão rápida e ndash e uma nova casa

Desde 2000, o panorama da manufatura mudou muito rapidamente. As tecnologias disruptivas e os novos modelos de negócios apresentam ameaças e oportunidades que a indústria e os governos precisam entender e agir de acordo. Uma preocupação cada vez mais premente é como podemos continuar a satisfazer o apetite mundial por produtos e serviços sem destruir o planeta no processo.

A posição proposta para o novo edifício no site West Cambridge

Como já vimos, a pesquisa, a educação e a prática do IfM estavam se expandindo rapidamente à medida que entrávamos no novo milênio. Em 2001, o IfM recebeu uma grande bolsa e tornou-se o lar de um dos Centros de Pesquisa de Manufatura Inovadora da EPSRC & rsquos que, quando se juntou a Bill O & rsquoNeill & rsquos IMRC em 2003, criou uma organização de tamanho e escopo significativos. No entanto, estava operando em um conjunto bastante precário de escritórios e laboratórios em Mill Lane, no centro de Cambridge, e isso estava se tornando um fator limitante, a ponto de a nova equipe fotônica ser exilada no Science Park.

Uma campanha de arrecadação de fundos arrecadou £ 15 milhões de uma série de benfeitores muito generosos, incluindo Alan Reece, através da Fundação Reece, e a Fundação Gatsby Charitable, que foi o suficiente para construir uma nova casa para o IfM. Em 2009, mudou-se para as suas atuais instalações construídas de propósito no site de West Cambridge. Este foi um desenvolvimento extremamente significativo, não apenas do ponto de vista do conforto e do moral da equipe. Isso significava que o IfM poderia hospedar uma ampla gama de eventos e atividades que eram úteis em si mesmos, mas também permitiam que mais e mais pessoas tivessem um vislumbre do trabalho em andamento e aumentassem o interesse em colaborações de pesquisa e projetos de consultoria.

19 de novembro de 2009: o duque de Edimburgo descobre a placa na abertura do novo edifício, aplaudida por Dame Alison Richard, a vice-reitora da Universidade de Cambridge na época.

O novo prédio também possibilitou uma maior expansão do programa de pesquisa, por meio de mais espaço para escritórios e laboratórios. Em 2010, o professor Andy Neely voltou para o IfM de Cranfield & ndash tendo trabalhado com Ken Platts na medição de desempenho na década de 1990 & ndash para fundar a Cambridge Service Alliance, que reúne acadêmicos e empresas multinacionais para enfrentar o desafio que uma organização enfrenta ao deixar de ser um fabricante de produtos para um provedor de serviços.

Um Grupo de Manufatura Sustentável interdisciplinar estava operando no IfM desde o final dos anos 1990 e o desenvolvimento de práticas industriais sustentáveis ​​tem sido um fio condutor em vários programas de pesquisa do IfM & rsquos. Em 2011, isso recebeu um impulso significativo quando o Centro EPSRC para Fabricação Inovadora em Sustentabilidade Industrial liderado por Steve Evans foi estabelecido dentro do IfM. Esta é uma colaboração entre quatro universidades (Cambridge, Cranfield, Imperial College, Londres e Loughborough), com um programa de associação para garantir que as empresas de manufatura ajudem a definir a agenda de pesquisa e participem ativamente de seus projetos.

Compreender os modelos de negócios está no centro de muitas das atividades de pesquisa do IfM & rsquos: como uma empresa pode adicionar um exemplo ou aprender a operar de forma mais sustentável? Que impacto as novas tecnologias, como a impressão 3D, terão nas empresas estabelecidas e nos novos participantes do mercado? Como as empresas devem redesenhar suas redes de operações em resposta a tecnologias disruptivas? Chander Velu criou uma nova iniciativa de pesquisa que adota uma abordagem de gestão e economia para a inovação do modelo de negócios e tem como objetivo reunir diferentes perspectivas do IfM e das principais universidades do Reino Unido e internacionais para estabelecer uma agenda de pesquisa coordenada.

Mais espaço de laboratório permitiu ao IfM estender seus interesses de pesquisa em ciência e tecnologia, adquirindo recentemente equipes multidisciplinares que procuram como fabricar novos materiais em escala, como nanotubos de carbono (ver página 9) e biossensores, liderados por Micha & eumll De Volder e Ronan Daly respectivamente. Ao trabalhar com colegas com experiência em política, gestão e operações, essas equipes são capazes de enfrentar os desafios científicos e tecnológicos dentro do contexto mais amplo da cadeia de valor da manufatura, a fim de compreender os fatores de risco desde o início e maximizar as chances de uma comercialização bem-sucedida.

IfM common room & ndash um espaço projetado para encorajar networking e colaboração.

IfM ECS continuou a expandir a gama de serviços que oferece. Por exemplo, atualmente está executando um programa de desenvolvimento profissional e executivo sob medida para a Atos (consulte a página 27) e está expandindo ativamente seu portfólio de cursos abertos e workshops para refletir novas pesquisas emergentes dos centros de pesquisa IfM & rsquos. Da mesma forma, o número de ferramentas e técnicas que a IfM ECS tem à sua disposição para apoiar a indústria e o governo por meio de consultoria está crescendo para incluir atividades como design de produto e servitização.

Em 2010, a IfM ECS assumiu a gestão da ideaSpace, um centro de inovação em Cambridge que oferece espaço de escritório flexível e oportunidades de networking para empreendedores e inovadores que buscam iniciar novas empresas de alto impacto. Além de ajudar a criar novos negócios de sucesso e valor econômico, a ideaSpace também trabalha com governos, agências e universidades para desenvolver políticas, estratégias e programas que apóiem ​​um setor start-up próspero.

Fazendo um balanço

A pesquisa, a educação e a prática da manufatura em Cambridge percorreram um longo caminho nos últimos 50 anos, mas ainda permanecem fiéis à visão de Hawthorne e Reddaway: a manufatura envolve muito mais do que moldar materiais. Para compreender as complexidades dos sistemas industriais modernos com suas dimensões de engenharia, gestão e economia, você precisa estar totalmente engajado com as pessoas e empresas que o fazem & lsquofor real & rsquo. O programa de pesquisa aqui agora é extenso, cobrindo todo o espectro de atividades de manufatura. Este ano, a Universidade de Cambridge como um todo recebeu mais financiamento EPSRC para pesquisa de manufatura do que qualquer outra universidade do Reino Unido. A IfM tem um papel importante a desempenhar não apenas em fazer sua parte nessa pesquisa, mas também em facilitar a pesquisa de manufatura em toda a Universidade.

A educação está prosperando. Os cursos ISMM e MET vão de vento em popa e este ano temos mais de 75 alunos fazendo doutorado ou mestrado de pesquisa.

IfM ECS continua a crescer, colocando a pesquisa IfM em prática seja redesenhando empresas multinacionais e redes de operações rsquo, ajudando a desenvolver inovação robusta e estratégias e sistemas de tecnologia, ou entregando programas de desenvolvimento executivo e profissional e cursos abertos.

Usando o microscópio eletrônico de varredura no Centro de Fotônica Industrial

Olhando para o futuro

Então, para onde levará o IfM nos próximos 50 anos? Nosso forte senso de propósito não mudará & ndash continuamos comprometidos em fazer a diferença para o mundo, melhorando o desempenho e a sustentabilidade da fabricação. Continuaremos a criar conhecimento, percepções e tecnologias que tenham valor real para indústrias de manufatura novas e estabelecidas e para a comunidade política associada. E continuaremos a garantir que o nosso conhecimento tenha impacto, através das nossas atividades de formação e consultoria.

James Moultrie inspirando alunos recentes do MET

Mas o IfM é fundamentalmente sobre inovação. Portanto, embora continuemos fazendo o que fazemos de melhor, também buscaremos oportunidades de fazer as coisas de maneira diferente. Temos planos ambiciosos para o futuro, que incluem o possível desenvolvimento de um & lsquoscale-up center & rsquo, um espaço físico dedicado a apoiar a transição de ideias e conceitos de protótipos baseados em laboratório para aplicações industriais escaláveis. James Stuart teria aprovado a energia e determinação empregadas na criação do IfM como o conhecemos hoje e seu espírito pioneiro continuará a nos inspirar. Dessa forma, esperamos garantir que os próximos 50 anos sejam ainda mais produtivos e agradáveis ​​do que os últimos 50.

Este artigo foi escrito por Sarah Fell com base em entrevistas conduzidas pelos alunos de doutorado do IfM, Chara Makri, Katharina Greve e Kirsten Van Fossen, com membros da equipe do passado e do presente e com amigos de longa data do IfM.


Masagana 99

o Masagana O Programa 99 foi lançado em 1973 como um Programa de Sobrevivência para lidar com a escassez aguda de alimentos e, posteriormente, para aumentar a produção de arroz. A meta era atingir um rendimento de 99 cavans (ou 4,4 toneladas) de arroz não moído por hectare. Masagana 99 estava ancorado em duas provisões de serviço - um programa de crédito e transferência de tecnologia. Masagana 99 foi um programa de crédito supervisionado inovador e o primeiro desse tipo em sua época. Para emancipar os agricultores da usura e das condições onerosas dos bancos estabelecidas pelos bancos na concessão de empréstimos aos agricultores, o governo garantiu 85% de todas as perdas em Masagana 99 empréstimos. Essa garantia induziu os bancos rurais a renunciar à sua prática tradicional de exigir garantias. Até mesmo a política de redesconto foi reformulada para torná-los mais fáceis e com custo mínimo para o agricultor-credor. Posteriormente, cerca de 420 bancos rurais e 102 agências do Banco Nacional das Filipinas concordaram em conceder empréstimos nessas condições.

Os pedidos de empréstimo foram processados ​​rapidamente e no local. Funcionários do banco, juntamente com técnicos agrícolas, processaram o plano da fazenda e o orçamento para os agricultores seldas[4] ou cooperativas. Um agricultor individual com uma garantia a oferecer também pode obter crédito. O empréstimo máximo permitido atingiu o equivalente a US $ 100 por hectare com juros mensais de um por cento (1%). Depois de aprovados, muitos dos empréstimos eram enviados às fazendas a pé, de motocicleta, de jipes e até mesmo de barcos-bomba. O Banco Nacional das Filipinas chamou esse programa de “Banco sobre Rodas”. Parte do empréstimo foi concedido em dinheiro para cobrir custos de mão-de-obra, enquanto o restante foi entregue em Pedidos de Compra e que poderia ser trocado por fertilizantes e pesticidas nas lojas participantes.

O Programa Banco sobre Rodas do PNB projetado para complementar o Programa Masagana 99 por meio de empréstimos e até mesmo entregando-os aos agricultores nos campos

Se o programa de crédito era inovador, também o era a transferência de tecnologia. Os agricultores foram agora apresentados a novas variedades de arroz chamadas HYVs (variedades de alto rendimento), que eram radicalmente diferentes das que plantavam anteriormente. Essas variedades exigiam amplo preparo e uso de fertilizantes e agrotóxicos para que o agricultor, com o auxílio de técnicos agrícolas, tivesse que seguir o método especificado pelo Programa.

Para garantir a coordenação e cooperação de todas as iniciativas relacionadas à fazenda, os executivos-chefes locais foram incluídos no programa. Os governadores foram designados presidentes dos Comitês de Ação Provinciais, enquanto os prefeitos foram nomeados chefes das Equipes de Ação Municipais. Ambos os funcionários eram responsáveis ​​pela coordenação de várias agências - bancos, moleiros e comerciantes, distribuidores de insumos agrícolas, redes de rádio locais, DA, DAR e DLGCD - em seus respectivos níveis.

Em seu primeiro ano, o Masagana 99 foi um grande sucesso. Devido às condições políticas prevalecentes, os atores da implementação executaram as tarefas que lhes foram atribuídas, embora com relutância. Além disso, o país geralmente desfrutava de um bom tempo em 1974, de modo que as perdas para a agricultura eram mínimas, ao contrário dos últimos três anos. Além disso, como os preços dos fertilizantes em 1974 aumentaram acentuadamente devido à turbulência no Oriente Médio e ao ditame imposto pela Organização dos Países Exportadores de Petróleo (OPEP), o governo amorteceu seu impacto por meio de subsídios, no valor de cerca de 21% do preço de varejo. Por último, o governo forneceu um preço garantido ao produtor de US $ 6 por saca, livrando os agricultores de graves perdas quando os preços de mercado caíam durante a época da colheita. No que diz respeito à auto-suficiência em arroz, Masagana 99 foi um grande sucesso. Na verdade, após apenas dois anos de sua implementação, as Filipinas foram capazes de atingir a suficiência em 1976 [5] e podem ter exportado arroz [6].

Tabela 3: Status de Masagana Programa de crédito 99 após a expiração (31 de abril de 1979)

Estágio Prazo nº de mutuários Área (tem.) Empréstimos concedidos (em M pesos) Taxa de reembolso (em%)
eu Maio - outubro de 1973 401,461 620,922 369.5
II Novembro de 73 - abril de 74 236,115 355,387 230.7 94
III Maio - outubro de 1974 529,161 866,351 716.2 94
4 Novembro de 74 - abril de 75 354,901 593,609 572.1 84
V Maio - outubro de 1975 301,879 558,330 572.9 82
VI Novembro '75 - abril '76 151,862 255,882 255.9 76
VII Maio - outubro de 1976 144,265 244,477 274.3 81
VIII Novembro '76 - abril '77 89,623 148,763 164.3 80
IX Maio - outubro de 1977 131,842 222,622 250.5 81
X Novembro '77 - abril '78 92,476 155,095 176.1 74
XI Maio - outubro de 1978 116,624 202,606 236.9 80
XII Novembro '78 - abril '79 85,401 157,521 158.0 68


GM: Como o gigante perdeu sua voz e # 8211 uma perspectiva interna e # 8217s

[postado pela primeira vez em 21/05/2013. CraigInNC é um ex-funcionário da GM e tem compartilhado os benefícios de seu conhecimento e perspectiva internos & # 8217s desde que chegou aqui na CC. Neste post, que era originalmente um comentário que Craig deixou, ele compartilha suas idéias sobre as forças externas e internas em ação durante a era crucial que começou com o Embargo do Petróleo da OPEP, e que ele identifica como um ponto de inflexão fundamental na GM. O declínio da GM é a maior história automotiva de todos os tempos e, obviamente, há muitos pontos de vista e perspectivas para isso. Sinta-se à vontade para concordar ou discordar, mas mantenha o tom civilizado. & # 8211 PN]

Os carros FWD C-Body 1985 da GM & # 8217s reduzidos (Cadillac DeVille e Fleetwood, Olds 98, Buick Electra) e os carros 1986 E / K (Eldorado / Sevilha) representam um dos pontos de viragem chave na GM. A situação com esses carros totalmente novos não se limitava apenas a esses modelos, mas era parte de um conjunto mais amplo de orientações que a GM decidiu seguir dez anos antes de chegar às ruas. Dizer que a OPEP teve influência sobre isso seria um eufemismo, mas isso afetou todos os carros, mais especialmente os domésticos que construíram carros grandes. Naquela época, a maioria das importações era muito pequena, com exceção de alguns modelos da Mercedes.

Por mais que culpemos Roger Smith por todos os problemas da década de 1980, ele teve apenas uma influência marginal no processo que deu início a tudo isso. Ele poderia ter feito mais provavelmente para exercer pressão para ajustar os modelos, mas a sorte já estava lançada antes de ele assumir a presidência no outono de 1980. A situação, a meu ver, era a seguinte:

É claro que o Embargo do Petróleo da OPEP de 1973-1974 mudou tudo - estourou a bolha para a maioria dos americanos e nos fez perceber que o petróleo que gerou a gasolina era um recurso natural finito, e um recurso que não era totalmente controlado pelos Estados Unidos. Todos nós sabemos e entendemos muito bem essa parte da história, então nada mais precisa ser dito.

CAFE foi promulgado em 1975, para entrar em vigor para carros de passageiros MY1978 e caminhões leves MY1979. A GM foi a mais afetada por esta legislação por ser a principal construtora de carros grandes. A economia de combustível da Chrysler foi provavelmente um pouco menor do que a da GM durante os anos 1970, mas dada a terrível situação financeira da Chrysler no final dos anos 1970, o foco na Chrysler era manter a empresa viva, em vez da ameaça de ação governamental sobre o CAFE. Também sendo a mais fraca das Três Grandes, com cerca de 15% do mercado, a Chrysler era menos ameaçadora à ação do governo do que a GM, que sempre viveu sob a ameaça do antitruste, assim como a AT & ampT e a IBM.

Como comentei no artigo com o Olds Firenza, o não cumprimento dos padrões do CAFE GM provavelmente resultaria em consequências graves. Naquela época, Washington redigiu legislação e a comparou novamente com a GM. A AT & ampT forneceu telefones, a RCA forneceu TVs, a NBC / ABC / CBS forneceu programas de TV, a Kodak vendeu filmes para sua câmera e a IBM vendeu computadores. Foi isso em poucas palavras. Mas, como podemos ver, cada uma dessas empresas não existe mais na forma histórica. Alguns, como a AT & ampT, foram quebrados à força, outros como IBM & amp GM sofreram um declínio e se recuperaram em uma nova forma e, claro, sabemos como a TV passou de 3 canais para 3.851 e contando com & # 8230

Ed Cole (à esquerda) aposentou-se como presidente da GM em 1974. Ele foi um dos últimos presidentes da GM verdadeiramente influentes que foi considerado um “cara dos carros”. Ele começou sua carreira trabalhando em uma loja de peças de automóveis e terminou como presidente da Checker antes de morrer tragicamente. Pete Estes (à direita) seguiu Cole e era um cara operacional, mas sob ele o cara começou a rodar e apesar de sua carreira lendária com Oldsmobile, Pontiac e Chevrolet, ele não tinha a arrogância de Ed Cole e outros. Mas ele era muito amado. E um homem de inovações extremas. Enquanto outros eram mais amplos em seus pronunciamentos, Estes entendeu todos os detalhes. Como jovens alunos do GMI, estávamos todos maravilhados com grandes nomes como Mitchell e Cole, e até mesmo Iacocca da Ford, porque eles eram celebridades. Mas para aqueles que não possuíam extroversão extrema, um cara como Pete Estes cuja influência era sentida menos no que você via do lado de fora de um carro do que no que você sentia por dentro ao dirigi-lo. Ele era um verdadeiro homem de engenheiro e é bastante apropriado que haja um quase santuário para ele em exibição nos Arquivos de Scharchburg na Universidade Kettering.

Roger Smith foi um homem de números em seu mandato antes de o presidente e CEO ser vice-presidente executivo de relações públicas, assuntos governamentais e finanças. Coisas que consideramos necessárias para fazer negócios, mas nunca esperamos que alguém fosse promovido a chefe da empresa. Uma situação muito incomum e à qual muitos tiveram dificuldade em se adaptar. Estávamos acostumados a ter nossas idéias aprovadas ou reprovadas por caras que já haviam pisado em nossos sapatos. Discutir custos antes dos resultados era o mesmo que esmagar a criatividade e a produtividade.

Parte da genialidade da GM por tantos anos foi, na verdade, uma organização coletiva de mini trusts cerebrais, ideias e energia fluindo de baixo para cima até o topo. Coisas como a gênese do turbo Buick V6 originado de um projeto de escoteiros são uma prova disso. Isso teria sido quase impossível de ter ocorrido após os anos 1980. Simplesmente não havia esse nível de fluxo de comunicações. Vindo de um background não operacional, Smith não sentiu nenhuma conexão com a equipe de engenharia que realmente fazia tudo o que vendíamos. Ele não tinha afinidade pessoal com nenhum deles e muitas vezes nem conhecia todos, exceto a equipe mais sênior das divisões na época em que se tornou CEO. Assim, ele se sentiu desimpedido para embarcar em vários projetos de seu gosto sem dores de culpa.

Bill Mitchell se aposentou em 1977. Mitchell exerceu influência sobre a gestão corporativa ao contrário do que havia sido visto antes ou depois. Quase tudo o que Mitchell queria, ele conseguiu. A menos que fosse determinado pelo governo, ninguém disse a Mitchell o que fazer. Infelizmente, Irv Rybicki, que substituiu Mitchell, não teve a espinha nem a influência de Mitchell. Quando Rybicki se aposentou em 1986, ele estava basicamente projetando carros que lhe disseram para projetar e não o contrário.

Quando Chuck Jordan assumiu as rédeas do design, as coisas já estavam longe demais para serem corrigidas de maneira concreta, mas se Jordan tivesse seguido Mitchell, eu pessoalmente acho que as coisas teriam sido muito melhores. Jordan era um verdadeiro fã do Cadillac e sua influência foi mais sentida com os designs E / K de 1992, que são amplamente considerados de aparência inteligente. Jordan também foi influente em convencer a administração a começar a dimensionar os carros novamente e foi em grande parte responsável pelo crescimento dos carros de 1988 em diante. É claro que Mitchell é o segundo depois de Jesus Cristo em estilo automotivo na GM, mas Jordan tinha um dom para a presença atrás apenas disso. O atual chefe de design da GM, Ed Welburn, é muito talentoso, mas Jordan foi o último dos velhos com olho crítico.

No rescaldo da OPEP, com o advento do CAFE, e mudando os gostos dos clientes, a decisão foi tomada em 1975 dentro da GM em um nível corporativo, para ir a toda velocidade para FWD e maximizar a eficiência do espaço. A crença era, com razão, que os dias como os conhecíamos haviam acabado. Os paradigmas que impulsionaram o design e o desenvolvimento automotivo desde o primeiro Oldsmobile não se aplicavam mais. Até o final dos anos 1960, os fabricantes de automóveis construíam o que queriam, totalmente livres de qualquer coisa, fosse regulamentação governamental para eventos mundiais. A Europa e o Japão ainda estavam cavando para fora das cinzas da Segunda Guerra Mundial. Os carros construídos em Detroit representavam tudo o que pensávamos sobre os Estados Unidos.

Lembro-me de estar sentado em um auditório na GMI quando um executivo da GM fez um discurso exaltando-nos as virtudes da GM e como ela se encaixa no resto do país. Você sabe "o que é bom para a GM é bom para os EUA, etc ..." O carro foi a expressão máxima da liberdade que construiu este país. Manifeste o destino, viva livre ou morra, e o poder do indivíduo. Cidadãos soviéticos dirigiram Ladas e alemães orientais dirigiram Trabants. Dirigimos carros que representavam o poder industrial do país e seu estilo era adequado.

Então tudo mudou.Um bando de homenzinhos, vestidos com camisas brancas com gravata preta skinny e óculos de garrafa de coca, entrou e nos disse que era tudo um sonho. Bem, não realmente, mas me senti assim. De repente, tínhamos companhias de seguro respirando fundo em nossas costas, a EPA procurando por problemas, a NTHSA nos dizendo que as pessoas eram loucas e a OPEP nos disse que homens de aparência estranha com bronzeado permanente e vestindo roupões de banho nos mostraram que tinham mais controle sobre nosso comportamento do que nossos próprio governo eleito. Foi muito surreal depois de um tempo.

Depois de 1978, tudo parecia uma confusão gigante se não fosse CAFÉ, fosse fluxo de caixa ou outra coisa. Nada parecia fluir livremente do cérebro para a garagem. Tudo parecia um meio-termo, o sucesso parecia que você alcançou o máximo que podia. Tudo era um e se ... Os dias de construir carros a partir dos sonhos que Bill Mitchell tinha com carros saindo das nuvens na Inglaterra acabaram.

Por todos esses fatores, a decisão foi tomada em nível corporativo para direcionar a empresa para a eficiência do FWD e do espaço. A segunda crise do petróleo (1980) e os dois anos seguintes de preços incertos de energia e inflação apenas validaram isso. Primeiro vieram os carros X (Citation, etc.). Depois vieram os carros J & amp A, e o resto veio como os conhecemos. Foi um compromisso total, não apenas no nível do modelo, mas em toda a empresa. O RWD estava pronto, acabado, para todos, exceto para os modelos mais especializados de automóveis de passageiros, como o Corvette.

Se tudo tivesse ocorrido de acordo com o planejado, NÃO haveria carros RWD, exceto alguns, em MY1985. Foi uma mudança de paradigma nunca vista no mundo automotivo que provavelmente ocupa o terceiro lugar atrás da invenção da partida automática e da transmissão automática, em termos do que mudou a percepção das pessoas sobre o que era um carro. Sim, o mercado tinha o VW Rabbit que era pequeno, eficiente e FWD com um motor transversal de quatro cilindros, mas o Rabbit era um veículo de nicho. Foi comprado por pessoas que precisavam de um carro pequeno, e a VW naquela época não produzia nada que combinasse com o centro do público comprador, o grande carro RWD.

Por mais que desacreditemos a Citation, quando ela foi lançada, ela realmente mudou o pensamento de Detroit e do público comprador dos Estados Unidos. Especialmente com o passar do tempo com o lançamento dos body cars J e A, todos sabiam para onde o mercado estava indo. A Chrysler lançou os carros K. Se a GM tivesse decidido fazer carros RWD menores com motores longitudinais, é muito provável que os carros transversais FWD continuassem sendo objeto de importação e / ou apenas carros menores. Subestimar o impacto não faria justiça à mudança radical que afetou a cultura do design dentro de Detroit e nas mentes do público comprador dos Estados Unidos. Basta pensar no Chevette e no Vega como carros ultrapequenos com designs ultraconvencionais. Embora todos esses "pecados mortais" da década de 1980 possam ter custado aos revendedores GM, sua influência gerou eficiência de espaço como uma referência para o design de automóveis que permanece conosco até hoje.

O fulcro de influência na GM mudou das divisões para o nível executivo sob Roger Smith. O que não refletia mais disso foi a malfadada reorganização de 1984, que demoliu em grande parte a autonomia corporativa. Suponho que, de uma perspectiva de negócios, o modelo antigo não duraria para sempre. Como vimos nos casos de mistura de motores da década de 1970, a integração vertical total das divisões não era mais econômica em vista da escalada contínua dos custos das mercadorias vendidas, regulamentação e custos associados ao plano corporativo de mudança para FWD.

Antigamente, os carros eram simples, eram RWD, principalmente veículos com estrutura, V8s, carburados e grandes. A maior parte do orçamento no desenvolvimento do carro foi para o estilo. Os motores evoluíram de forma incremental, os corpos podiam ser alterados com bastante facilidade e com menos despesas com um design de corpo sobre estrutura. Tudo estava bem organizado. Mesmo usando estruturas e subestruturas idênticas, você poderia fazer um carro parecer e se sentir completamente diferente com relativa facilidade. GM era o mestre nisso. Com FWD e unibody isso não era mais possível, pelo menos tão fácil e barato como no passado.

FWD custa dinheiro, muito dinheiro. Projetos monobloco custam mais dinheiro para projetar porque eles têm que ser projetados como um pacote, não apenas como um corpo que pode ser colocado em uma estrutura existente. E eles não podem ser facilmente diferenciados. Daí todos os carros pré-fabricados da década de 1980. Infelizmente, os outros fabricantes de automóveis, especialmente os importados, construíram apenas um tipo de carro, então não havia nada para se parecer, até que os japoneses lançaram suas marcas premium e muitos desses modelos começaram a parecer e se sentir muito mais projetados ( embora reconhecidamente não ao nível dos veículos GM).

Então, quando você tem cinco divisões agora tendo que construir carros FWD de tamanho semelhante em designs monobloco, você vai de plataformas que antes podiam ser facilmente alteradas para se adequar aos temas de estilo de cada divisão e características do cliente, para plataformas que eram virtualmente impossíveis de fazer diferentes. Era uma situação ruim que não poderia ser corrigida facilmente. Acredite em mim, essa ideia não foi perdida por NINGUÉM no nível de divisão e doeu a muitas pessoas. Mas quando uma empresa toma a decisão corporativa de levá-la em uma direção e investe o que é o equivalente ao PIB de provavelmente vários estados, as direções não podem ser alteradas facilmente. Dadas as previsões de aumento dos preços do gás e a continuação das regulamentações, a FWD veio para ficar e tínhamos que fazer o melhor possível.

Dado que a GM entrou de todo o coração no programa FWD, não apenas a estrutura básica do corpo mudou, mas tudo o mais mudou com ela. Os carros X foram um dos primeiros veículos de mercado de massa a ter o padrão de injeção de combustível. Injeção real de combustível, como o tipo que levou os carros até a era moderna e durou até os anos 1990. Essa foi outra mudança de paradigma incrível. É claro que o Seville foi o primeiro grande modelo da GM a ter um sistema EFI moderno, mas era um modelo de nicho e administrado apenas por revendedores Cadillac que podiam treinar pessoal selecionado para fazer a manutenção. E esse sistema EFI emprestou pesadamente em sistemas europeus existentes.

O sistema GM TBI que foi lançado em 1980 estabeleceu o padrão para o sistema de injeção de combustível no corpo do acelerador básico, mas altamente eficiente, em produção. Embora tenha havido muitas falhas de engenharia ao longo dos anos, aquele sistema TBI não era um deles e se tornou um projeto sólido de rocha altamente confiável, juntamente com o SFI desenvolvido posteriormente que saiu em turbo Buicks em 1984, que novamente estabeleceu o padrão para controle de combustível no indústria. Até a recente adoção de sistemas de injeção direta, os sistemas de injeção de combustível eram em grande parte cópias de carbono do sistema original que estreou em 1984 no Regals.

Tudo isso foi feito em grande escala, sem precedentes antes visto. A coisa mais próxima de uma reengenharia total foi o Toronado 1966 e isso foi justificado porque foi vendido para a Oldsmobile e, eventualmente, Cadillac e Buick porque eram carros premium. Agora estávamos construindo carros baratos para o dia-a-dia para as massas que tinham desenvolvimento de movimento neles que haviam sido gastos no desenvolvimento da bomba atômica da Segunda Guerra Mundial. Se você somar todo o dinheiro gasto desde o primeiro dólar gasto no Citation até o último carro convertido de RWD em FWD e convertido em dólares de 2013, você quase poderá equilibrar o orçamento federal. Sem brincadeiras. Estava nesse nível. Foi opressor. Não foi nada parecido com qualquer coisa que pudesse ter sonhado ou imaginado quando eles entraram na escola de engenharia.

Quando começamos a faculdade, todos esperávamos construir variações de carroceria RWD em carros com estrutura para sempre. Aqueles que tinham o estilo de cada divisão os desejavam. Alguns carros como o Vette e o Toronado eram diferentes, mas eram veículos de baixo volume e tinham equipes dedicadas. Mal sabia eu que, quando me aposentasse efetivamente em tempo integral, após 41 anos, estaríamos dirigindo veículos FWD maciçamente computadorizados com materiais da idade espacial que poderiam nos proteger de todas as situações, exceto as mais terríveis.

E foi daí que vieram todas as falhas. Alguns deles, como o V864, foram tapa-buracos, claramente introduzidos para fazer a ponte entre o antigo e o novo. Outros como o HT4100, um motor que acabou se revelando bastante sólido, mas foi colocado em produção às pressas devido ao tempo e às circunstâncias. Então, de certa forma, foi como se mobilizar para a guerra. As mudanças afetaram tudo. Quase nada foi igual de 1975 a 1985. Não tenho certeza se uma única empresa automotiva mudou assim em um período de dez anos na face da terra. Talvez as empresas do bloco soviético, mas acho que poderíamos confiná-lo aos países de mercado livre.

Sempre que você empreende uma mudança tão grande nesse nível, com uma empresa tão grande, com tanta influência na indústria, erros vão acontecer. Isso não absolve ninguém dos efeitos, mas teria sido difícil imaginar como poderia ter sido totalmente aperfeiçoado, já que tanto estava acontecendo que estávamos com as mãos ocupadas apenas para manter tudo em movimento.

Então, as pessoas perguntam: bem, como a Honda ou a Mercedes conseguiram se manter unidas durante esse tempo e crescer? Bem, simplesmente, eles eram muito menores, construíam menos produtos e não eram afetados pelas forças que afetaram as Três Grandes e a GM em particular. A Toyota não construiu nada de qualquer tamanho em particular, exceto o Cressida, que era apenas um jogador pequeno no mercado. A Honda vendeu apenas Accords, Civics e Preludes, três dos quais eram veículos pequenos não afetados pelo CAFÉ, de modo que a Honda como uma corporação não teve que suportar uma mudança generalizada que as Três Grandes experimentaram após a OPEP. Eles poderiam continuar devotando suas energias em silêncio para continuar a desenvolver seus veículos sem mudanças radicais.

Quando o gás estava em falta e a economia de combustível era uma preocupação primordial, as pessoas compravam muitos carros pequenos importados, além de muitos carros domésticos pequenos. Mas quando essas preocupações diminuíram, vimos os compradores retornarem aos padrões de compra mais tradicionais, mesmo que apenas por curtos períodos. Durante a década de 1990, tivemos um longo período de prosperidade e baixos preços relativos da gasolina que, naquela época, os carros de passageiros já estavam totalmente redesenhados e muito menores, impulsionaram as vendas de SUVs que foram os sucessores espirituais do design tradicional dos carros americanos. O gás voltou a subir e as pessoas começaram a comprar itens menores novamente e o ciclo já existia há algum tempo.

Então, de certa forma, pelo menos para as montadoras japonesas, construindo apenas carros pequenos, quando as coisas começaram a mudar na frente de energia, elas não foram ao mercado, mas o mercado veio até elas. Eles simplesmente estavam lá, como o Mustang II estava em 1974, projetado sem qualquer consideração real para a OPEP, mas era algo que parecia tão certo no momento. E vendeu, em parte porque era mais gerenciável do que os Mustangs recentes, mas frequentemente porque era muito mais eficiente. O mesmo com o Vega, apesar dos problemas dos primeiros anos, MY1974 foi um ano excepcional porque era um carro pequeno e eficiente quando o mundo das pessoas estava de cabeça para baixo.

Na década de 1980, o maior pecado de Roger Smith foi o dinheiro gasto em projetos estranhos não relacionados ao design e construção de automóveis. Coisas como EDS, Hughes Electronics e a compra de robôs para lamber envelopes quando o dinheiro poderia ter sido gasto no refinamento de produtos. Parecia o governo federal, bilhões de dólares voando por toda parte, mas ninguém realmente sabia para onde estava indo. Em 1965, cada dólar era gasto na colocação de carros nas garagens das pessoas. Sim, a Frigidaire construía geladeiras e eletrodomésticos, mas o fazia em parte porque também fazia ar-condicionado para carros, e essas linhas de produtos eram lucrativas e não drenavam dos recursos corporativos. Eu não sabia até cerca de oito anos atrás que uma divisão da Hughes Electronics desenvolveu e introduziu a DIRECTV, sim AQUELE DirecTV que concorre com DishNetwork e TimeWarner para nossa exibição de televisão. Então, todos vocês que odeiam GM com a DirecTV, é melhor trocar rápido! Bem, na verdade você não precisa, já que é uma empresa totalmente separada (desmembrada em 2003), mas só para você saber ...

Na época em que Roger Smith se aposentou em 1990 e Bob Stempel assumiu as rédeas, as coisas estavam uma bagunça. Bob deveria ter substituído Pete Estes em 1981, mas ele não estava naquele ponto da cadeia alimentar na época, mas como Pete, ele era um cara de operações. Ele sabia como fazer as coisas. Ele não poderia ter revertido o impulso para a FWD, mas não teria gasto o dinheiro que Roger Smith gastou em tudo, mas poderia ter feito desses carros os melhores veículos já produzidos, ou pelo menos muito melhores do que eram. Quando ele pegou as chaves, ele estava paralisado. A empresa estava sangrando dinheiro, nada estava vendendo e ele passava a maior parte do tempo tentando consertar o navio. Infelizmente para ele, esteve fora do país durante grande parte da década de 1980, administrando a Opel (que estava ganhando muito dinheiro na época, não como hoje, onde está morrendo) e não teve influência sobre as operações na América do Norte. Mas Stempel gostava de carros e teria se saído bem se tivesse os recursos para fazê-lo.

Para vincular isso a algo que Paul possa apreciar, em 2007, houve um artigo escrito no TTAC:

Enquanto a maior parte da (primeira) história documenta vários males vividos pelo proprietário e outros, sinto que ele aponta corretamente para o carro X como o começo do fim. Na verdade, essa data era 21 de junho de 1975, quando o comitê executivo aprovou toda a plataforma FWD X para começar, mas isso está sendo discreto.

É difícil dizer se foi a decisão de usar a FWD que deu início ao declínio em si ou os males que o carro sofreu como produto. Porque temos que voltar à premissa original do que tornou a GM o que ela foi e o que a tornou ótima. Tudo isso mudou com a decisão de usar o monobloco FWD. As pessoas compravam carros da GM porque cada divisão fazia algo único e não apenas era único, mas pelo menos no que diz respeito às importações, a única competição era dentro das Três Grandes.

Antes da Opep, ninguém realmente se importava com os veículos importados, exceto nas margens. A Mercedes estava reduzindo as vendas de luxo, mas, a menos que começassem a construir veículos para o mercado de massa, teriam ficado confinados a uma pequena seção desse mercado. Assim como a VW e os outros europeus que construíram pequenos veículos peculiares que atendiam a segmentos de nicho da população que tinham necessidades específicas ou eram estranhos o suficiente para não se importar em dirigir ônibus VW de 55 HP que não iam a lugar nenhum rápido. Se a OPEP não tivesse acontecido, uma de duas coisas teria acontecido: as importações teriam permanecido mordiscando as duas extremidades dos extremos, ou teriam sido forçados a introduzir produtos maiores que teriam parecido muito mais com carros americanos antiquados do que o que eles estavam construindo atualmente. Por mais que falemos sobre o quanto a OPEP e o CAFÉ afetaram os Três Grandes, só para bancar o advogado do diabo, muitas vezes tenho pensado sobre o que teria acontecido se o inverso fosse verdade que o governo teria aprovado uma lei obrigando os carros de tamanho mínimo. A GM teria largado o Vega de bom grado e o caos reinaria em Tóquio. Não muito diferente de como reinou em Detroit por tanto tempo.

Portanto, a moral de todas essas coisas, poderíamos argumentar que Roger Smith desperdiçou dinheiro que poderia ter sido gasto em produtos, poderíamos culpar a OPEP por destruir o modelo de negócios dos EUA, culpar o UAW por extrair o máximo de benefícios, culpe as decisões corporativas de ir para a frente. É impossível fazer isso de forma construtiva. Era tão grande. Muita coisa estava acontecendo. O verdadeiro pecado mortal era que tudo era simplesmente avassalador. Quase como um vício em drogas.

Assim que a bola começou a rolar em 1975, ela explodiu em uma grande quantidade de mudanças sem precedentes na história. Ele saiu do controle e, infelizmente, provavelmente a tal ponto que nenhum homem poderia ter parado. Quando você tem uma empresa do tamanho que a GM era uma vez, que era provavelmente maior do que a metade dos países das Nações Unidas, era como uma fissão nuclear. Quando as reações começam a acontecer, são difíceis de controlar. Foi como o colapso de Chernobyl.

Então, enquanto olho para os mais de 40 anos da minha vida e penso em tudo isso e na história e meu lugar nela, o que poderia ter sido feito de forma diferente, o que eu poderia ter feito de forma diferente, no final eu realmente não tenho todas as respostas. Teria sido como tentar descobrir como governar o mundo durante a Segunda Guerra Mundial. Suponho que no final tudo teve que ir embora. Os dias de grandes corporações verticalmente integradas com participação de mercado dominantes acabaram. Alguns irão dominar por um curto período de tempo, geralmente quando um novo produto é lançado, mas os dias da GM, AT & ampT, IBM, Kodak e RCA acabaram. Ido, feito. A globalização, a tecnologia, a comunicação, quaisquer que sejam os fatores, nunca permitirão que tais coisas aconteçam novamente.

Mas foi um passeio, um passeio divertido, um passeio que eu nunca sonhei que seria do jeito que saiu, mas apesar de toda a amargura que eu poderia ter com relação a tudo, provavelmente não teria feito de outra maneira.

270 comentários

Havia muitas marcas sobrepostas (ou, mais especificamente, muitos canais de distribuição). Isso encorajou uma cultura de engenharia de crachás e canibalização, que corroeu o valor das marcas individuais e necessariamente se tornou mais desesperadora quando a empresa começou a perder participação no mercado.

A GM e Detroit em geral estavam terrivelmente despreparadas para a crise da OPEP, que proporcionou uma oportunidade de vendas para concorrentes estrangeiros.

E os japoneses acabaram com eles com gerenciamento de qualidade total e produção enxuta. Os consumidores começaram a perceber que a qualidade de construção e engenharia simplesmente não eram tão boas.

A Ford inventou a produção em massa automotiva e a GM inventou a ideia de competir com base na marca, no estilo e nas características. A GM não esperava que o modelo de negócios evoluísse para além de onde o havia levado e não estava disposta a aceitar que alguns estrangeiros pudessem ser melhores no jogo do que eles. O maior custo do legado foi a arrogância, que fomentou a incapacidade de se adaptar às mudanças.

Este é um artigo excelente!
Curbside está se tornando o lugar para estar!

Por um período de uma década, a GM deixou de fazer carros que faziam os americanos felizes para fazer carros que não faziam. De alguma forma, a maior montadora de automóveis dos Estados Unidos decidiu que o futuro estava longe & # 8211 e seu fabricante foi assim. De alguma forma, a maior empresa automobilística dos Estados Unidos não via a possibilidade de ter isso e aquilo fora de seu portfólio de produtos.

Ninguém exigiu que a GM abandonasse os carros que os americanos gostavam de dirigir. Ninguém disse à GM que eles não queriam mais tração traseira, carroceria no chassi, automóvel. A GM decidiu parar de fabricar os carros que os americanos gostavam de dirigir. A GM se comprometeu a acreditar que o futuro dos automóveis não eram os automóveis que a tornavam a maior montadora do mundo. Era como se o fenômeno da Nova Coca se infiltrasse na GM.

A GM era monolítica e ainda pensa monoliticamente. Era tão oculto nisso que, independentemente da marca e do mercado da marca & # 8217s, a GM decidiu que o tamanho único serve para todas as rodas dianteiras, o carro monobloco do futuro iria se adequar a todas as marcas e mercados.Portanto, o que está sendo descrito neste artigo maravilhoso foi AUTO-INFLICADO. A OPEP não fez isso. A tecnologia não fez isso. O trabalho não fez isso. Porque se essas foram realmente as razões pelas quais isso foi feito & # 8211, então por que a GM não está mais produzindo os mesmos drivers frontais pré-fabricados hoje? estamos em 2013 e há mais diversidade de trens de força e metodologias de fabricação do que havia em 1985. Os problemas da GM & # 8217s foram autoinfligidos, não impostos a eles.

A GM decidiu se reinventar de uma maneira que apenas uma corporação pesada e monolítica de ponta o faria & # 8211 e estragou tudo. A GM desperdiçou bilhões de dólares se reinventando quando ninguém os obrigava a isso. H. Ross Perot mencionou com precisão que a GM poderia ter comprado a Toyota pelo que eles desperdiçaram durante os anos de Roger Smith. No entanto, os homens no topo da organização não conseguiam entender como fazer uma organização tão grande quanto a GM dar um salto mortal de 180 graus, mesmo quando não era necessário.

Os carros novos da GM & # 8217 sugaram como um tornado F5 em um buraco negro. O que queríamos em um carro GM não era mais fabricado. Você queria uma Park Avenue com tração traseira? Difícil & # 8211, você tem um driver dianteiro que não poderia ser um Park Avenue, mesmo quando vinha com veludo amassado tufado.

Queríamos carros verdadeiros da GM. A GM nos disse que seus pseudomobiles monobloco com tração dianteira eram melhores. Nós sabíamos o que eles sabiam na época em que disseram isso & # 8211 esses carros não eram carros reais da GM.

Quando os pilotos da frente não nos deram o que queríamos em um carro GM, deixamos a GM.


Década de 1990

Na década de 1990, a Austrália acessava rotineiramente os dados de sensoriamento remoto dos satélites Landsat e NOAA dos EUA, dos satélites SPOT franceses, do satélite radar europeu ERS-1 e do satélite meteorológico geoestacionário japonês (GMS). A Austrália era agora reconhecida internacionalmente como um provedor altamente profissional de suporte de solo e um usuário inovador e eficaz de dados fornecidos por outros países, particularmente na análise e processamento de dados brutos.

A espaçonave ESA Ulysses foi lançada em outubro de 1990 com a missão de estudar os pólos do Sol em maiores detalhes. Para conseguir isso, inicialmente ele voou para Júpiter e depois voltou para o sul, para fora do plano da eclíptica, para sobrevoar o Pólo Sul do Sol. Durante esse tempo, Tidbinbilla teve uma visão exclusiva da espaçonave quando os primeiros detalhes surgiram. A espaçonave durou mais de 12 anos.

O Australian Space Research Institute (ASRI) surgiu no início de 1990 como resultado de uma fusão entre o Grupo de Desenvolvimento de Veículos de Lançamento AUSROC na Monash University em Melbourne e a Australian Space Engineering Research Association (ASERA). Eles começaram a engenharia de desenvolvimento de propulsão, foram oficiais de segurança certificados e oficiais de lançamento para foguetes de sondagem, assumiram uma grande quantidade de foguetes Zuni e os ofereceram como oportunidades de lançamento para cargas úteis, conduzindo campanhas de lançamento em Woomera duas vezes por ano até 2010, quando o ADF essencialmente proibiu o uso não militar de Woomera. Muitas teses universitárias foram concluídas graças à ASRI e aos Zunis, incluindo os projetos supersônicos dos alunos em Queensland.

Depois de encontros desordenados como mais um clube espacial, a National Space Society of Australia realizou a primeira Conferência de Desenvolvimento Espacial Australiana em 1990 em Sydney com o apoio financeiro da GIO Reinsurance, OTC Australia, Baker & amp McKenzie, a Cape York Space Agency & sucessor do # 8217s The Essington Group, Australian Airlines e American Airlines e o Australian Space Office.

A ASRI realizou sua primeira conferência espacial nacional em 1991 e 19 conferências anuais no total até 2009.

A nave espacial Magellan Mission to Venus entrou em órbita em agosto de 1990 e então começou a mapear a superfície de Vênus em detalhes sem precedentes ao longo de 1994. Tidbinbilla apoiou a missão.

A CSIRO e a indústria australiana forneceram algumas contribuições de design e construção de componentes para os instrumentos Along Track Scanning Radiometer (ATSR) -1 e -2 e o instrumento Advanced ATSR (AATSR). A série de instrumentos ATSR foi financiada conjuntamente pelos governos do Reino Unido e da Austrália, e voou a bordo dos satélites ERS-1 (ATSR-1, lançado em 1991) e -2 (ATSR-2, lançado em 1995) da Agência Espacial Europeia. O instrumento ATSR avançado foi lançado a bordo do satélite ENVISAT da ESA em 2002 e continuou a funcionar até 2012.

A Optus adquiriu a AUSSAT e seus satélites quando se tornou a nova operadora de telecomunicações da Austrália em janeiro de 1992. O satélite de comunicações, Optus B1, foi lançado em órbita em 1992.

O Essington Group (formado para substituir a Agência Espacial de Cape York) cessou em 1992 e seu lugar foi assumido pelo Sistema de Transporte Espacial (STS) formado em 1992. O STS planejava lançar Proton-Ks da ilha de Darwin e Melville em colaboração com a Rússia.

Um acordo entre a Austrália e os Estados Unidos relativo à realização de voos científicos em balão para fins de pesquisa civil foi estabelecido em 1992.

No mesmo ano, um vôo de ônibus espacial da NASA colocou em órbita um telescópio espacial ultravioleta australiano Endeavour.

A 2ª Conferência de Desenvolvimento Espacial Australiana foi realizada em Sydney em outubro de 1992 e incluiu o estabelecimento da Câmara de Comércio da Indústria Espacial Australiana (que se tornaria em 2010 & # 8217s a Associação da Indústria Espacial da Austrália).

A Rocketplane Kistler foi incorporada em 1993 no Sul da Austrália como uma joint venture australiana-americana com o objetivo de lançar um programa RLV COTS em duas fases. Tudo deu terrivelmente errado e terminou caro em 2001, finalmente cancelando o registro em 2007.

O governo australiano encomendou uma revisão de um painel de especialistas (a revisão de Curtis) do Programa Espacial Nacional em 1992. Como resultado, o Lei do Conselho Espacial Australiano de 1994 foi aprovado, o que criou um conselho espacial. O mandato do conselho era relatar assuntos que afetam a aplicação da ciência espacial e recomendar uma política espacial nacional chamada Programa Espacial Nacional para encorajar a aplicação da ciência e tecnologia relacionada ao espaço pelo setor público e privado na Austrália.

A Estação Terrestre de Lockridge foi construída em 1993 e continua a oferecer suporte a serviços de satélite internacionais e alguns domésticos. O It & # 8217s ainda funcionava 24 horas por dia em reconhecimento ao seu papel principal como uma instalação de rastreamento, telemetria e controle de amplificador.

A 3ª Conferência de Desenvolvimento Espacial da Austrália foi realizada em Sydney em 1994 e foi usada pelo então Escritório Espacial Australiano para lançar seu plano de cinco anos para a indústria espacial australiana.

UniSA & # 8217s DCG desenvolvido no Institute for Telecommunications Research (ITR) em 1994. ITR é a maior organização de pesquisa baseada em universidade na área de comunicações sem fio na Austrália e conduz suas pesquisas em quatro áreas principais: comunicações por satélite, comunicações de dados de alta velocidade , rádios e redes flexíveis e neurociência computacional e teórica. Eles desenvolveram modems de estação terrestre de satélite usados ​​em ACRES e estações terrestres comerciais. ITR também opera as antenas ASTRA e S-Band, usadas pela ESA para missões ATV para ISS e as primeiras missões Dragon pela SpaceX.

Em 1994, o satélite de comunicações Optus B3 foi lançado em órbita para substituir o satélite Optus B2 que falhou, que nunca chegou à órbita devido a uma falha do veículo lançador. Ele está localizado na fenda orbital 164 ° E em órbita inclinada com uma pegada cobrindo a Austrália e a Nova Zelândia. O Optus B3 carrega 16 transponders, 15 deles operando na banda Ku e o restante na banda L com links de alimentação da banda Ku.

Em 1995, a sonda Galileo entrou na atmosfera de Júpiter. CDSCC foi a principal estação de rastreamento e comunicação para esta missão. A sonda revelou que a composição química e a estrutura da atmosfera não eram as esperadas.

Vendo um nicho na distribuição de dados de satélite, John Douglas fundou a bem-sucedida Apogee Imaging International, uma empresa de sensoriamento remoto com sede em Adelaide, em 1995. Ele viajou o mundo e dirigiu projetos na África, Ásia e Austrália nos 15 anos seguintes.

A Oxford Falls Earth Station foi estabelecida em 1995. A instalação é o portal internacional Optus & # 8217 para serviços de voz, dados e vídeo de coletores de notícias internacionais, bem como fornece comunicações internacionais para os principais departamentos do governo australiano e provedores de TV paga.

O governo aboliu o Escritório Espacial Australiano e o Conselho Espacial Australiano, e encerrou o financiamento do Programa Espacial Nacional em 1996. Várias pessoas-chave tentaram transformá-lo no Escritório da Agência Espacial Australiana, mas isso caiu em ouvidos surdos.

Junto com a ASICC, a NSSA pediu o estabelecimento de uma Agência Espacial Nacional Australiana (ANSA) e, por meio dos esforços de Philip Young, divulgou o white paper & # 8220Space Australia & # 8221 para o governo. Nada resultou dessas petições.

O astronauta australiano Dr. Andy Thomas AO fez seu primeiro vôo ao espaço no Endeavour no mesmo ano.

Em 1996, o CSIRO, em nome da Austrália, foi presidente do corpo cooperativo internacional de observação da Terra, o Comitê de Satélites de Observação da Terra (CEOS).

O satélite Western Pacific Laser Tracking Network, WESTPAC, de propriedade da Electro Optics Systems Pty Ltd de Canberra, foi lançado em 1998.

O Centro Cooperativo de Pesquisa para Sistemas de Satélite foi estabelecido em 1998 para investigar aplicações de pequenos satélites para a Austrália.

Em 1998, Melbourne sediou o 49º Congresso Internacional de Astronáutica - a primeira vez que este evento global anual foi realizado na Austrália.

A 5ª Conferência Australiana de Desenvolvimento Espacial foi realizada em Sydney em julho de 1998 e a Melbourne Space Frontier Society teve um breve ressurgimento. Um grupo ramificado também realizou conferências da Fronteira Espacial por alguns anos.

A Spacelift Australia Ltd (SLA) foi formada em 1999 como uma joint venture australiana-russa com o objetivo de criar 150 empregos e uma indústria de US $ 200 milhões em Woomera usando o START-1 LV e convertendo um ICBM russo. Terminou em 2001.

A United Launch Systems International (ULSI) propôs um veículo de nova geração, o Unity-22, direcionado ao mercado LEO. O consórcio ULSI era formado pela International Space Development of Bermuda, que detinha 90% das ações, e Projects International Australia, com os 10% restantes. O Desenvolvimento Espacial Internacional, por sua vez, era de propriedade majoritária da Thai Satellite Telecommunications (TST). A ULSI propôs realizar lançamentos de teste de uma nova linha perto de Gladstone no norte de Queensland, Austrália, em 2002, com operações comerciais iniciando em 2003 a uma taxa inicial de seis lançamentos por ano. Nada disso aconteceu.

A Spacelift Austrália levantou quase US $ 1 milhão em capital de um investidor russo e teve como alvo o segmento inferior do mercado de lançamento comercial, com o objetivo de usar o foguete Start baseado no SS-25 russo como base para um serviço turnkey total fornecido pelo STC-Complex MIHT. A partir de novembro de 2000, a Spacelift planejou três voos de demonstração de Woomera e buscou ativamente clientes e pagamentos antecipados, prometendo voos comerciais completos a partir de 2001. Não queimou combustível de foguete, mas iria queimar muito dinheiro nos próximos dois anos.

Em 1999, havia cinco consórcios de portos espaciais diferentes na Austrália, quatro dos quais eram baseados em hardware russo, todos com o objetivo de estabelecer instalações de lançamento comercial.

o Lei do Conselho Espacial Australiano de 1994 foi revogado em 1999.

A Joint Defense Facility Nurrungar (JDFN), localizada perto de Woomera, encerrou as operações e foi desativada. O ADF agora usa o site ocasionalmente para teste do exército e trabalho de avaliação com a aprovação da Woomera Test Range. Toda a instalação está completamente vazia e sem luz & # 8211 até mesmo luzes e plugues de energia. Uma das & # 8216 bolas de golfe & # 8217 gigantes permanece intacta como uma estrutura de redoma impressionante (não operacional, todos os mecanismos removidos).


NTR Hot Fire Testing Part I: Rover e NERVA Testing

Olá, e bem-vindo de volta ao Beyond NERVA, onde hoje estamos analisando os testes de solo de foguetes nucleares. Este é o primeiro de dois posts sobre NTRs de teste de solo, com foco nos métodos de teste usados ​​durante o Projeto ROVER, incluindo uma análise do teste de potência zero e testes de montagem realizados no Laboratório Científico de Los Alamos, e o teste de fogo quente feito no Estação de Pesquisa da Defesa Nacional em Jackass Flats, Nevada. O próximo post incidirá sobre as opções que têm e estão sendo consideradas para o teste de fogo quente da próxima geração de LEU NTP, bem como uma breve análise das estimativas de custo para as diferentes opções e os planos que a NASA propôs para as instalações que são necessários para apoiar este programa (o pouco que está disponível).

Nós examinamos como testar elementos de combustível NTR em situações nun-nucleares antes, e vimos duas das bancadas de teste que foram desenvolvidas para testar efeitos térmicos, químicos e de erosão neles como componentes individuais, o Simulador de Ambiente de Elemento Combustível Compacto (CFEET ) e o Simulador de Efeitos Ambientais de Foguete Térmico Nuclear (NTREES). Essas bancadas de teste fornecem meios econômicos de testar elementos de combustível antes de carregá-los em um reator nuclear para testes comportamentais de neutrônica e física do reator, e podem detectar muitos problemas em termos de problemas químicos e estruturais sem lidar com as dores de cabeça de testar um reator nuclear.

No entanto, como qualquer engenheiro pode lhe dizer, a modelagem por computador está longe de ser suficiente para testar um sistema completo. Sem extensos testes da vida real, nenhum sistema pode ser usado em situações da vida real. Isso é especialmente verdadeiro para algo tão complexo como um reator nuclear - muito menos um motor de foguete. Os NTRs têm o desafio de ser ambos.

Instalação de manutenção e desmontagem de motores, imagem via Wikimedia Commons

Na época do Projeto Rover, havia muitos testes de propulsão nuclear realizados. O mais famoso deles foram os testes realizados em Jackass Flats, NV, no National Nuclear Test Site (agora o National Criticality Experiment Research Center), em testes ao ar livre em vagões ferroviários especializados. Isso estava longe de ser a grande maioria das habitações humanas (havia um pequeno - menos de 100 pessoas - rancho contra o vento da instalação, mas a favor do vento era o local de teste para testes de armas nucleares, então qualquer precipitação de um derretimento do reator não foi considerada um fator importante interesse).

O programa de teste no local de Nevada começou com a chegada dos motores de foguete totalmente construídos e testados preliminarmente, chegando por via férrea de Los Alamos, NM, junto com um contingente de cientistas, engenheiros e técnicos adicionais. Depois de fazer outra verificação do reator, eles foram conectados (ainda presos ao vagão personalizado em que foi enviado) a instrumentação e propelente de hidrogênio e passaram por uma série de testes, atingindo potência total ou falha do motor . O desenvolvimento de motores de foguete naquela época (e até hoje, às vezes) podia ser um negócio explosivo, e o hidrogênio era um novo propulsor a ser usado, então, infelizmente, acidentes eram comuns nos primeiros dias do Rover.

Após o teste, os foguetes foram lançados em um trecho remoto da pista para esfriar (do ponto de vista da radiação) por um período de tempo, antes de serem desmontados em uma célula quente (uma instalação fortemente blindada usando manipuladores remotos para proteger o engenheiros) e examinados de perto. Este exame verificou quanta energia foi produzida com base nas relações de produto de fissão do combustível, examinou e detalhou todas as falhas de material e mecânicas que ocorreram e iniciou os procedimentos de descomissionamento e descarte do reator.

Com o passar do tempo, grandes avanços foram feitos não apenas no projeto de NTR, mas em metalurgia, dinâmica de reatores, dinâmica de fluidos, engenharia de materiais, técnicas de manufatura, criogenia e uma série de outras áreas. Esses motores de foguete estavam muito além da tecnologia de ponta, até mesmo para a NASA e a AEC - duas das organizações mais cientificamente avançadas do mundo naquela época. Isso, infelizmente, também significou que no início houve muitas falhas, por motivos que não eram imediatamente aparentes ou que não tinham uma solução com base nas capacidades de design da época. No entanto, eles persistiram, e até o final do programa Rover em 1972, um foguete térmico nuclear foi testado com sucesso em configuração de vôo repetidamente, os elementos de combustível para o foguete estavam avançando aos trancos e barrancos além das especificações necessárias, e com a capacidade de iterar e testar novas versões desses elementos de forma barata em reatores de teste novos, versáteis e reutilizáveis, as melhorias estavam longe de estagnar - elas estavam se acelerando.

No entanto, como sabemos, o programa do Rover foi cancelado depois que a NASA não estava mais indo para Marte, e o programa de desenvolvimento foi em grande parte descartado. Cientistas e engenheiros do Westinghouse Astronuclear Laboratory (o contratante comercial do motor de voo NERVA), do Oak Ridge National Laboratory (onde grande parte da fabricação do elemento combustível foi realizada) e do Los Alamos Scientific Laboratory (a instalação AEC responsável principalmente pelo projeto do reator e inicial teste) passou cerca de mais um ano terminando a papelada e os relatórios finais, e o programa foi praticamente encerrado. O relatório final sobre os programas de teste de fogo quente para a NASA, porém, não seria lançado até 1991.

Nos bastidores: teste pré-aquecimento de reatores ROVER

Área de teste de Pajarito, imagem cortesia de LANL

Esses testes de fogo quente foram na verdade o resultado final de muitos outros testes realizados no Novo México, no Laboratório Científico de Los Alamos - especificamente na Área de Teste de Pajarito. Aqui, havia muitas bancadas de teste e reatores experimentais usados ​​para medir coisas como neutrônicos, comportamento do reator, comportamento do material, limitações críticas de montagem e muito mais.

Honeycomb, com uma maquete KIWI carregada. Imagem via LANL

O primeiro deles era conhecido como Honeycomb, devido ao uso de grades quadradas de alumínio (quase sempre transparente aos nêutrons), presas em grandes molduras de alumínio. Prismas de combustível nuclear, refletores, absorvedores de nêutrons, moderador e outros materiais foram montados com cuidado (para evitar criticidade acidental, algo que o local de teste de Pajarito tinha visto no início de sua existência nos experimentos do Núcleo do Demônio e subsequente acidente) para garantir que o comportamento modelado de configurações de núcleo possíveis semelhantes o suficiente para o comportamento previsto para justificar o esforço e as despesas de prosseguir para as próximas etapas de refino e teste de elementos de combustível em um núcleo de reator operacional. Especialmente para testes de criticidade de frio e calor, esta bancada de teste foi inestimável, mas com o cancelamento do Projeto Rover, não houve necessidade de continuar a usar a bancada de teste e, por isso, foi em grande parte desativada.

PARKA, imagem cortesia de LANL

O segundo foi um reator KIWI-A modificado, que usava uma ilha moderada de água pesada de baixa pressão no centro do reator para reduzir a quantidade de combustível físsil necessária para o reator atingir a criticidade.Esse reator, conhecido como Zepo-A (para potência zero ou criticidade fria), foi o primeiro de um experimento realizado com cada projeto sucessivo no programa Rover, apoiando o Westinghouse Astronuclear Laboratory e as operações de projeto e teste do NNTS. À medida que cada reator passava por seu teste neutrônico de potência zero, o projeto foi refinado e os problemas corrigidos. Este tipo de teste foi concluído no final de 2017 e no início de 2018 no NCERC em apoio à série de testes KRUSTY, que culminou em março com o primeiro teste de potência total de um novo reator nuclear nos EUA por mais de 40 anos, e continua a ser uma fase de teste crucial para todo o desenvolvimento de reatores nucleares e elementos de combustível. Um primeiro teste de montagem crítica do tipo KIWI acabou sendo redefinido em uma bancada de teste chamada PARKA, que foi usada para testar reator reprodutor rápido de metal líquido (LMFBR, agora conhecido como “Reator Rápido Integral ou IFR, em desenvolvimento no Idaho National Laboratórios) pinos de combustível em um ambiente de nêutrons epitérmicos de baixa potência para teste de comportamento transiente de inicialização e desligamento, além de ser uma fonte de radiação geral bem compreendida.

Fornalha de gás quente na LASL, imagem cortesia de LANL

Finalmente, havia um par de fornos a gás quente (um em LASL, um em WANL) para aquecimento elétrico de elementos de combustível em um ambiente H2 que usava aquecimento resistivo para trazer o elemento de combustível até a temperatura. Isso se tornou cada vez mais importante à medida que o projeto continuava, já que o desenvolvimento do revestimento do elemento de combustível era um grande empreendimento. À medida que os elementos de combustível se tornavam mais complexos ou à medida que os materiais usados ​​no elemento de combustível mudavam, as propriedades térmicas (e propriedades químicas na temperatura) desses novos projetos precisavam ser testadas antes dos testes de irradiação para garantir que as mudanças não tivessem sido involuntárias consequências. Isso não era apenas para o revestimento, a composição da matriz de grafite também mudou ao longo do tempo, passando do uso de farinha de grafite com resina termofixa para uma mistura de farinha e flocos, e as próprias partículas de combustível mudaram de óxido de urânio para carboneto de urânio, e as partículas eles próprios foram revestidos também no final do programa. O forno a gás foi inestimável nesses testes e pode ser considerado o avô dos atuais bancos de teste NTREES e CFEET.

Maquete do KIWI-A, Zepo-A e Honeycomb no Kiva 3. Imagem cortesia de LANL

Um excelente exemplo da importância desses testes, e da verificação cuidadosa que cada um dos reatores Rover recebeu, pode ser visto com o reator KIWI-B4. Maquetes iniciais, tanto no Honeycomb quanto em maquetes mais rigorosas do Zepo do reator, mostraram que o projeto tinha boa reatividade e capacidade de controle, mas enquanto a equipe em Los Alamos estava montando o reator de teste real, foi descoberto que havia muita reatividade o núcleo não pôde ser montado! Material inerte foi usado no lugar de alguns dos elementos do combustível, e venenos de nêutrons foram adicionados ao núcleo, para neutralizar esse excesso de reatividade. Testes cuidadosos mostraram que as partículas de carboneto de urânio que estavam suspensas na matriz de grafite sofreram hidrólise, moderando os nêutrons e, portanto, aumentando a reatividade do núcleo. Versões posteriores do combustível usavam partículas maiores de UC2, que eram então revestidas individualmente antes de serem distribuídas pela matriz de grafite, para evitar essa absorção de hidrogênio. O teste cuidadoso e a montagem desses reatores experimentais pela equipe de Los Alamos garantiram o teste e a operação seguros desses reatores assim que chegaram ao local de teste de Nevada e apoiaram o trabalho de design da Westinghouse, os esforços de fabricação do Oak Ridge National Lab e a potência total final testes realizados em Jackass Flats.

NTR Core Design Process, imagem cortesia da IAEA

Depois que esta série de testes de criticidade bruta de maquete, teste de potência zero, montagem e verificação foi concluída, os reatores foram carregados em um vagão especial que também funcionaria como uma bancada de teste com o bocal para cima e - acompanhados por uma equipe de cientistas e engenheiros do Novo México e de Nevada - transportados de trem para o local de teste em Jackass Flats, adjacente à Base da Força Aérea de Nellis e ao local de teste de Nevada, onde os testes de armas nucleares foram feitos. Uma vez lá, uma série final de verificações foi feita nos reatores para garantir que nada de adverso tivesse acontecido durante o transporte, e os reatores foram conectados à instrumentação de teste e ao fornecimento de hidrogênio refrigerante para teste.

Problemas em Jackass Flats: Fissão é a parte fácil!

Os desafios de teste que a equipe de Nevada enfrentou se estenderam muito além dos testes nucleares, que era o objetivo principal desta série de testes. O hidrogênio é um material notoriamente difícil de manusear devido ao seu tamanho e massa incrivelmente minúsculos. Ele se infiltra em metal sólido, as válvulas devem ser feitas com folgas incrivelmente apertadas e, quando exposto à atmosfera, é um grande risco de explosão. Para aumentar os problemas, estes foram os primeiros dias de experimentação do H2 criogênico. Mesmo hoje, o manuseio de H2 criogênico está longe de ser um procedimento de rotina, e os problemas muitas vezes inevitáveis ​​com o uso de hidrogênio como propelente podem ser vistos em muitas áreas - talvez o mais espetacular possa ser visto durante o lançamento de um foguete Delta-IV Heavy, que é um foguete hydrolox (H2 / O2). Após a ignição dos motores do foguete, parece que o foguete não está sendo lançado da plataforma, mas explodindo nela, devido à liberação de H2 não apenas das válvulas de alívio de pressão nos tanques, mas infiltração de válvulas, soldas e através do corpo dos próprios tanques - o foguete pegando fogo é, na verdade, um procedimento operacional padrão!

Plu Brook Cryo Tank Pressure Test, imagem cortesia da NASA

No final da década de 1950, esses problemas estavam apenas sendo descobertos - da maneira mais difícil. A Plum Brook Research Station da NASA em Ohio era uma instalação chave para explorar técnicas para lidar com hidrogênio gasoso e líquido com segurança. Eles não apenas experimentaram equipamentos criogênicos, métodos de densificação de hidrogênio e transporte e manuseio de H2 líquido, mas também realizaram testes mecânicos e de materiais em válvulas, sensores, tanques e outros componentes, bem como desenvolveram técnicas de soldagem e recursos de teste e verificação para melhorar a capacidade de lidar com esse extremamente difícil, potencialmente explosivo, mas também de um valor incrível (devido à sua 'baixa massa atômica - exatamente a mesma propriedade que causou os problemas em primeiro lugar!) propelente, refrigerante e moderador nuclear. As outras opções disponíveis para o propelente NTR (basicamente qualquer coisa que seja um gás nas temperaturas de operação do reator e não deixe resíduos excessivos) não eram tão boas como uma opção devido à menor velocidade de exaustão - e, portanto, menor impulso específico.

Plum Brook é outra instalação frequentemente esquecida que foi crítica para o sucesso não apenas do NERVA, mas de todos os sistemas atuais movidos a hidrogênio líquido. Estou pensando em fazer outro post (este já é MUITO longo) olhando para a história das várias instalações envolvidas com o programa Rover e NERVA.

Na verdade, todos os testes KIWI-A e o KIWI-B1A usaram hidrogênio gasoso em vez de hidrogênio líquido, porque o equipamento que foi planejado para ser usado (e seria usado em testes subsequentes) foi atrasado devido a problemas de construção, problemas de soldagem, válvula falhas e disparos durante a verificação dos novos sistemas. Esses problemas iniciais com o propelente causaram grandes problemas em Jackass Flats e causaram muitos dos acidentes mais chamativos que ocorreram durante o programa de testes. Os incêndios de hidrogênio eram comuns, e um acidente durante a instalação de linhas de propelente em um reator acabou causando grandes danos ao carro de teste, o galpão em que estava contido e a instrumentação exposta, mas apenas pequenos danos aparentes ao próprio reator, atrasando o teste do reator por um mês inteiro enquanto os reparos eram feitos (este teste também viu dois incêndios de hidrogênio durante o teste, um problema comum que melhorou à medida que o programa continuou e os métodos para lidar com o H2 foram aprimorados).

Embora o refrigerante H2 fosse a fonte de muitos problemas na Jackass Flats, outros problemas surgiram devido ao fato de que esses NTRs estavam usando uma tecnologia que estava muito além da tecnologia de ponta na época. Novos métodos de construção não começam a descrever o nível de inovação tecnológica em praticamente todas as áreas que esses motores exigiam. Materiais que eram possibilidades teóricas da engenharia química apenas alguns anos antes (às vezes até meses!) Estavam sendo utilizados para construir reatores inovadores, de alta temperatura, química e neutronicamente complexos - que também funcionavam como motores de foguete. Novas ligas de metal foram desenvolvidas, novas formas de grafite foram empregadas, métodos experimentais de revestimento dos elementos de combustível para evitar que o hidrogênio atacasse o carbono da matriz do elemento de combustível (como visto no reator KIWI-A, que usava placas de grafite não revestidas como combustível, esta era uma grande preocupação) estavam sendo constantemente ajustados - na verdade, a experimentação de materiais cladeados continua até hoje, mas com recursos avançados de microimagem e meio século de ciência de materiais e experiência em fabricação desde então, os resultados agora estão anos-luz à frente do que estava disponível para cientistas e engenheiros nos anos 50 e 60. Princípios hidrodinâmicos que eram mal compreendidos, padrões de tensão e vibração que não podiam ser previstos e interações de materiais em temperaturas mais altas do que as experimentadas na grande maioria das situações causaram muitos problemas para os reatores Rover.

Um problema comum em muitos desses reatores era o craqueamento transversal do elemento de combustível, onde um elemento de combustível se dividia no eixo estreito, interrompendo o fluxo de refrigerante através dos canais internos, expondo a matriz de grafite ao H2 quente (que então corroia ferozmente, expor produtos de fissão e combustível não queimado ao fluxo de H2 e carregá-lo para outro lugar - principalmente para fora do bocal, mas descobriu-se que o urânio se reunia nos pontos mais quentes do reator - mesmo contra o fluxo de H2 - o que poderia ter implicações terríveis para pontos quentes de energia de fissão acidental. Às vezes, grandes seções dos elementos de combustível eram ejetadas para fora do bico, espalhando combustível nuclear parcialmente queimado no ar - às vezes como grandes pedaços, mas quase sempre parte do combustível era aerossolizado. Hoje, isso seria definitivamente inaceitável, mas na época o governo dos Estados Unidos estava testando armas nucleares literalmente ao lado desta instalação, então não foi considerado uma causa de grande con cern.

Se isso soa como se houvesse grandes desafios e acidentes significativos acontecendo no Jackass Flats, bem no início do programa isso certamente estava correto. Esses problemas iniciais também foram citados na decisão do Congresso de não continuar a financiar o programa (embora, sem uma missão tripulada a Marte, não houvesse realmente nenhuma razão para usar os sistemas caros e difíceis de construir, de qualquer maneira). A coisa a lembrar, porém, é que eles foram os primeiros testes, com materiais que tinham sido um conceito na imaginação de um engenheiro de materiais apenas alguns anos (ou às vezes meses) antes, tensões mecânicas e térmicas que ninguém jamais havia lidado, e uma tecnologia que parecia ser a única maneira de enviar humanos para outro planeta. A lua estava forte o suficiente, Marte estava a milhões de quilômetros de distância.

Teste de fogo quente: como era um teste?

Os testes nucleares são muito mais complexos do que apenas conectar o reator de teste às linhas de refrigeração e instrumentação, girar os tambores de controle e as válvulas de hidrogênio e observar os mostradores. Não apenas há muitos desafios associados a apenas decidir qual instrumentação é possível e onde ela seria colocada, mas a instalação desses instrumentos e a coleta de dados deles era frequentemente um desafio também no início do programa.

Diagrama de fluxo NRX A2, imagem via NASA (Finseth, 1991)

Para ter uma ideia de como é um teste de fogo quente bem-sucedido, vamos dar uma olhada na série de testes de um único reator posteriormente no programa: o teste de demonstração da tecnologia NRX A2. Este foi o primeiro projeto de reator NERVA a ser testado em potência total pela Westinghouse ANL, os outros, incluindo KIWI e PHOEBUS, não eram testes de demonstração de tecnologia, mas testes de prova de conceito e desenvolvimento de design que levaram ao NERVA, e foram testados por LASL. O próprio núcleo consistia em 1626 elementos de combustível prismáticos hexagonais. Este reator era significativamente diferente do reator XE-PRIME que seria testado cinco anos depois. Uma maneira que era diferente era a trajetória do fluxo de hidrogênio: após passar pelo bocal, ele entrava em uma câmara ao lado do bocal e acima do refletor axial (o motor foi testado bocal para cima, na configuração de vôo este ficaria abaixo do refletor) , em seguida, passe pelo refletor para resfriá-lo, antes de ser desviado novamente pelo escudo, através da placa de suporte e para os canais de propelente no núcleo antes de sair do bocal

Dois testes de potência foram conduzidos, em 24 de setembro e 15 de outubro de 1964.

Com dois gols principais e 22 gols menores, o teste de 24 de setembro embalou muito nos seis minutos de operação de meia a potência máxima (o reator esteve em potência máxima por apenas 40 segundos). Os principais objetivos foram: 1. Fornecer informações significativas para verificar a análise de projeto em estado estacionário para operação com energia, e 2. Fornecer informações significativas para auxiliar na avaliação da adequação do reator para operação em energia em estado estacionário e níveis de temperatura que seriam necessários se fosse para ser um componente em um sistema de motor experimental. Além dessas metas de teste principais, mas não muito específicas, uma série de metas mais específicas foram estabelecidas, incluindo metas de alta prioridade de avaliação das condições ambientais sobre a integridade estrutural do reator e seus componentes, avaliação de desempenho do conjunto central, lateral suporte e análise de desempenho do selo, análise do sistema de suporte axial central, avaliação do conjunto do refletor externo, avaliação do sistema de controle do tambor e avaliação geral da reatividade. Os objetivos menos urgentes também eram mais extensos e incluíam o desempenho do conjunto do bico, o desempenho do vaso de pressão, a avaliação do projeto da blindagem, a análise da instrumentação, a alimentação do propelente e a análise do sistema de controle, a análise nucleônica e do sistema de controle de energia avançado, o ambiente radiológico e a avaliação do perigo de radiação, o ambiente térmico em torno do reator, avaliação do sistema de controle de temperatura da câmara do bico e do núcleo, análise de reatividade e transiente térmico e avaliação do carro de teste.

Imagem via NASA (Finseth, 1991)

Várias retenções de energia foram conduzidas durante o teste, em 51%, 84% e 93-98%, todas ligeiramente acima da potência planejada. Isso foi devido à compressibilidade do gás hidrogênio (levando a mais moderação do que o planejado) e problemas com os medidores de vazão Venturi usados ​​para medir as taxas de fluxo de H2, bem como problemas com os termopares in-core usados ​​para instrumentação (um problema comum no programa ) e fornece um bom exemplo dos tipos de desafios imprevistos que esses testes devem avaliar. O comprimento do teste foi limitado pela disponibilidade de hidrogênio para acionar a turbobomba, mas apesar de ser um teste curto, foi um doce: todos os objetivos do teste foram atendidos, e um impulso específico ideal em um vácuo equivalente a 811 s foi determinado (baixo para um NTR, mas ainda duas vezes melhor do que qualquer motor químico da época).

Imagem via NASA (Finseth, 1991)

O teste de 15 de outubro foi um teste de baixa potência e baixo fluxo destinado a avaliar a operação do reator quando não estiver operando em alta potência, estado estável de operação, com foco no comportamento do reator na inicialização e no resfriamento. A parte relevante do teste durou cerca de 20 minutos e operou com 21-53 MW de potência e uma taxa de fluxo de 2,27-5,9 kg / s de LH2. Como acontece com qualquer sistema, operar no estado em que o reator foi projetado para operar era mais fácil de avaliar e modelar do que na inicialização e desligamento, duas condições pelas quais todo motor deve passar, mas estão muito fora das condições "ideais" para o sistema , e operar com hidrogênio líquido apenas tornava as perguntas maiores. Apenas quatro objetivos específicos foram definidos para este teste: demonstração de estabilidade em baixo fluxo de LH2 (usando a pressão dewar como medidor), demonstração de adequação em potência constante, mas com variação de fluxo de H2, demonstração de estabilidade com tambores de controle fixos, mas fluxo de H2 variável para efetuar uma mudança na potência do reator e obter um valor de feedback de reatividade associado ao LH2 na entrada do núcleo. Muitos desses testes dependem do fato de que o LH2 não é apenas um refrigerante, mas uma importante fonte de moderação de nêutrons, de modo que a taxa de fluxo (e mudanças associadas na temperatura e pressão) do propelente têm impactos que vão além da temperatura de o escapamento. Este teste mostrou que não havia instabilidades de energia ou fluxo nas condições de baixa potência e baixo fluxo que seriam vistas mesmo durante a inicialização do reator (quando o H2 entrando no núcleo estava em sua forma mais densa e, portanto, mais moderada). O comportamento previsto e os resultados do teste mostraram boa correlação, especialmente considerando a instrumentação usada (como o próprio reator) realmente não foi projetada para essas condições, e a maioria dos transdutores usados ​​estavam operando na faixa extremamente baixa de sua escala.

Após o teste de outubro, o reator foi conduzido por uma trilha de derivação para resfriar radiologicamente (permitir que os produtos de fissão de vida curta se decomponham, reduzindo o fluxo de radiação gama que sai do reator) e, em seguida, foi desmontado na célula quente NRDC. Esses exames post-mortem foram uma ferramenta extremamente importante para avaliar uma série de variáveis, incluindo quanta energia foi gerada durante o teste (com base na distribuição dos produtos de fissão, que mudaria dependendo de uma série de fatores, mas principalmente devido ao energia produzida e o espectro de nêutrons em que o reator estava operando quando foram produzidos), problemas de reatividade química, problemas mecânicos no próprio reator e vários outros fatores. Infelizmente, desmontar até mesmo um sistema simples sem quebrar algo acidentalmente é difícil, e isso estava longe de ser um sistema simples. Um desafio tornou-se "o reator quebrou-se sozinho ou não?" Isso é especialmente verdadeiro para os elementos de combustível, que muitas vezes se rompiam devido ao suporte lateral inadequado ao longo de seu comprimento, mas também costumavam se quebrar devido à maneira como eram unidos à extremidade fria do núcleo (que geralmente envolvia alta temperatura, razoavelmente neutronicamente estável adesivos).

Esse problema foi ilustrado no teste A2, quando havia vários elementos de combustível quebrados que não apresentavam erosão no intervalo. Este é um forte indicador de que eles quebraram durante a desmontagem, não durante o teste em si: H2 quente tende a corroer fortemente o carbono na matriz de grafite - e as pelotas de carboneto de combustível - e é um indicador muito bom se as hastes de combustível quebraram durante uma energia teste.Elementos de combustível quebrados eram um problema persistente em todos os programas Rover e NERVA (às vezes levando à ejeção da parte final quente dos elementos de combustível), e o fato de que todos os abastecidos parecem não ter quebrado foi uma grande vitória para o fabricantes de combustível.

Isso não significa que os elementos de combustível não estavam isentos de problemas. Cada geração de reatores usava diferentes elementos de combustível, às vezes vários tipos diferentes em um único núcleo e, neste caso, os canais do propelente, as extremidades dos elementos de combustível e as pontas do exterior dos elementos eram revestidos de NbC, mas todo o comprimento do fora dos elementos não era, para tentar economizar massa e não complicar abertamente o ambiente neutrônico do próprio reator. Infelizmente, isso significa que a pequena quantidade de gás que escorregou entre as tiras de preenchimento e os piro-ladrilhos colocados para evitar esse problema poderia corroer no meio da parte externa do elemento de combustível (em direção à extremidade quente), algo conhecido como mid- corrosão da banda. Isso ocorria principalmente na periferia do núcleo e tinha um padrão característico de estrias nos elementos de combustível. Foi feita uma alteração, para garantir que todos os elementos de combustível periféricos estivessem totalmente revestidos com NbC, uma vez que as áreas que possuíam este revestimento não foram afetadas. Mais uma vez, o núcleo se tornou mais complexo e mais difícil de modelar e construir, mas um problema específico foi abordado devido aos dados empíricos coletados durante o teste. Uma série de elementos de combustível instrumentados e sem combustível no núcleo foram encontrados quebrados de tal forma que não foi possível descartar de forma conclusiva o manuseio durante a desmontagem, no entanto, a integridade dos elementos de combustível ainda estava em dúvida.

Os problemas associados a esses elementos de combustível composto de grafite nunca foram realmente embora durante ROVER ou NERVA, com uma série de elementos de combustível quebrados (que eram conhecidos por terem se quebrado durante o teste) foram encontrados no reator PEWEE, o último teste deste tipo de matriz de elemento de combustível (NF-1 usou tanto CERMET - então chamado composto - ou elementos de combustível de carboneto, nenhum elemento de combustível GC foi usado). O reator A3 subsequente exibiu uma forma de erosão de combustível conhecida como erosão pin-hole, que o revestimento NbC foi incapaz de resolver, forçando a equipe do NERVA a outras alternativas. Esta foi outra área onde o uso de longo prazo dos elementos de combustível GC se mostrou insustentável para uso de longa duração além dos parâmetros de missão específicos, e uma grande parte do motivo pelo qual todo o motor NERVA foi descartado durante o teste, em vez de apenas o propelente tanques como em designs modernos. Novos materiais revestidos e técnicas de aplicação mostram-se muito promissores, e o GC pode ser usado em um reator LEU cuidadosamente projetado, mas isso é algo que não está realmente sendo explorado em profundidade na maioria dos casos (ambos os conceitos LANTR e NTER ainda usam elementos de combustível GC, com o NTER especificando-os exclusivamente devido a problemas de aumento de volume, mas parece ser o único momento em que é realmente necessário).

Pior que o pior caso: KIWI-TNT

Uma pergunta que muitas vezes é feita por aqueles que não estão familiarizados com os NTRs é "o que acontece se ele explodir?" A resposta curta é que eles não podem, por uma série de razões. Existe um limite de reatividade em um reator nuclear e tão rápido que pode ser utilizado. A quantidade de reatividade é cuidadosamente gerenciada através do carregamento de combustível nos elementos de combustível e venenos de nêutrons estrategicamente posicionados. Além disso, os sistemas de controle usados ​​para os reatores nucleares (neste caso, tambores de controle colocados ao redor do reator no refletor radial) só podem ser girados até certo ponto. Recomendo verificar o relatório sobre Neutrônicos de Segurança em Reatores Rover, de que gostou no final deste post, se for algo que você gostaria de examinar mais de perto.

No entanto, durante os testes do Rover no NRDS, um deles explodiu, após uma modificação significativa que nunca seria feita em um reator de vôo. Este é o teste KIWI-TNT (TNT é a abreviatura de Teste Nuclear Transiente). O comportamento de um reator nuclear quando se aproxima de uma reação descontrolada ou de algum tipo de falha é estudado em todos os tipos de reatores, geralmente em tipos de reatores especialmente construídos. Isso é necessário, uma vez que o projeto de produção de cada reator é altamente otimizado para evitar que esse tipo de falha ocorra. Isso também era verdade para os reatores Rover. No entanto, saber o que uma reação de excursão rápida faria ao reator era uma questão importante no início do programa e, portanto, um teste foi projetado para descobrir exatamente como as coisas poderiam ser ruins e caracterizar o que aconteceu em um caso pior do que o pior cenário. Ele rendeu dados valiosos para a possibilidade de um aborto durante o lançamento que resultou na queda do reator no oceano (a água sendo um excelente moderador, tornando mais provável a ocorrência de criticalidade acidental), se o veículo de lançamento explodisse na plataforma, e também testou a opção de destruir o reator no espaço após ele ter se exaurido de seu 'propulsor (algo que acabou não sendo planejado nos perfis finais da missão).

Reator KIWI B4A, no qual o KIWI-TNT foi baseado, imagem via LANL

O que foi o reator KIWI-TNT? O último da série de reatores KIWI, seu 'design era muito semelhante ao reator KIWI-B4A (o predecessor da série de reatores NERVA-1), que foi originalmente projetado como um reator de 1000 MW com uma temperatura de câmara de saída de exaustão de 2000 C. No entanto, uma série de coisas impediram uma excursão rápida de acontecer neste reator: primeiro, os calços usados ​​para os elementos de combustível eram feitos de tântalo, um veneno de nêutrons, para evitar o excesso de reatividade, segundo, os tambores de controle usavam motores de passo que foram lentos o suficiente para que uma reação descontrolada não fosse possível finalmente, este experimento seria feito sem refrigerante, que também atuou como moderador, então muito mais reatividade era necessária do que o projeto B4A permitia. Com os calços removidos, o excesso de reatividade adicionado ao ponto em que o reator era inferior a 1 subcrítico (com tambores de controle totalmente inseridos) e $ 6 de excesso de reatividade disponível em relação ao alerta crítico, e a taxa de rotação do tambor aumentou por um fator de 89 (!!), de 45 graus / s a ​​4000 graus / s, o cenário foi montado para esta rápida desmontagem programada em 12 de janeiro de 1965. Este grau de modificação mostra como seria difícil ter um acidente acidental de criticidade em um padrão Projeto NTR.

Esquema da bancada de teste KIWI-TNT, imagem via LANL

O teste tinha seis objetivos específicos: 1. Medir o histórico de reações e fissões totais produzidas sob uma reatividade conhecida e comparar com as previsões teóricas a fim de melhorar os cálculos para previsões de acidentes, 2. determinar a distribuição da energia de fissão entre o aquecimento do núcleo e a vaporização, e cinética energias, 3. determinação da natureza da ruptura do núcleo, incluindo o grau de vaporização e tamanhos de partículas produzidos, para testar um possível sistema de destruição nuclear, 4. medir a liberação na atmosfera de detritos de fissão sob condições conhecidas para calcular melhor outras possíveis cenários de acidentes, 5. medir o ambiente de radiação durante e após o transiente de energia, e 6. avaliar os danos ao local de lançamento e técnicas de limpeza para um acidente semelhante, caso ocorra (embora o grau de modificação necessário para o núcleo do reator mostre que este é um evento altamente improvável, e se um acidente explosivo ocorrer na almofada, seria de natureza química h o reator nunca fica crítico, então os produtos da fissão não estariam presentes em nenhuma quantidade significativa).

Foram 11 medições feitas durante o teste: histórico de tempo de reatividade, histórico de tempo de taxa de fissão, fissões totais, temperaturas do núcleo, movimento do núcleo e do refletor, pressões externas, efeitos de radiação, formação e composição de nuvens, estudos de fragmentação e partículas e distribuição geográfica de detritos . Um espelho angular acima do núcleo do reator (onde o bocal estaria se houvesse propelente sendo alimentado no reator) foi usado em conjunto com câmeras de alta velocidade no bunker do Norte para tirar imagens da extremidade quente do núcleo durante o teste, e vários termopares colocados no núcleo.

Teste KIWI-TNT, imagem AEC via SomethingAwful

Como era de se esperar, este foi um teste muito curto, com um total de 3,1 × 10 ^ 20 fissões alcançadas após apenas 12,4 milissegundos. Esta foi uma explosão altamente incomum, não consistente com uma explosão química ou nuclear. A temperatura do núcleo excedeu 17,5000 C em alguns locais, vaporizando aproximadamente 5-15% do núcleo (a maioria do resto ou queimado no ar ou foi aerossolizado na nuvem de efluente) e produziu 150 MW / seg de energia cinética sobre a mesma quantidade de energia cinética que aproximadamente 100 libras de alto explosivo (embora devido à natureza desta explosão, causada por superaquecimento rápido em vez de combustão química, para obter o mesmo efeito de explosivos químicos levaria consideravelmente mais HE). Observou-se que o material no núcleo se movia a 7300 m / s antes de entrar em contato com o vaso de pressão e arremessou a maior peça intacta do vaso de pressão (uma peça de 0,9 m², 67 kg do vaso de pressão) 229 m de distância do local de teste. Houve alguns problemas com a instrumentação neste teste, nomeadamente com os transdutores de pressão usados ​​para medir a onda de choque. Todos esses instrumentos, exceto dois (colocados a 100 pés de distância), não registraram a onda de pressão, mas sim um sinal eletromagnético no momento do pico de potência (os dois registraram uma sobrepressão de 3-5 psi).

KIWI-TNT permanece, imagem via LANL

Liberação radioativa durante o teste de Rover Prequel: A radiação é complicada

A radiação é a principal fonte de medo para muitas pessoas e é a fonte de uma grande confusão na população em geral. Para ser completamente honesto, quando examino os detalhes da física da saúde (o estudo dos efeitos da radiação nos tecidos vivos), passo muito tempo relendo a maioria dos documentos porque é fácil ficar confuso com os termos que são usados. Para piorar as coisas, especialmente para a documentação do Rover, tudo está nas velhas e desatualizadas medidas de radioatividade. Desculpe, usuários de SI por aí, toda a documentação AEC e NASA usa Ci, rad e rem, e converter tudo isso seria uma grande dor de cabeça. Se alguém quiser se voluntariar para me ajudar a converter tudo em unidades de bom senso, entre em contato comigo, adoraria a ajuda! No entanto, o ambiente natural é radioativo e o Sol emite uma quantidade prodigiosa de radiação, apenas parte da qual é absorvida pela atmosfera. Na verdade, há evidências de que o corpo humano REQUER certa quantidade de radiação para manter a saúde, com base em uma série de estudos feitos na União Soviética usando cavernas e dietas especialmente preparadas e totalmente não radioativas.

Exatamente quanto é saudável e não é uma questão de intenso debate, e não muito estudo, entretanto, e três principais teorias concorrentes surgiram. O primeiro, o modelo linear sem limiar, é a lei da terra e afirma que há uma quantidade máxima de radiação que é permitida a uma pessoa ao longo de um ano, não importa se é em um incidente (o que geralmente é uma coisa ruim), ou espaçadas uniformemente durante todo o ano. Cada rad (ou cinza, veremos abaixo) da radiação aumenta a chance de uma pessoa de ter câncer em uma certa porcentagem de forma linear e, portanto, efetivamente o modelo LNT (como é conhecido) determina um aumento mínimo aceitável no chance de uma pessoa ter câncer em um determinado período (geralmente quartos e anos). No entanto, isso não leva em consideração os mecanismos naturais de reparo do corpo humano, que podem substituir células danificadas (não importa como estejam danificadas), o que leva a maioria dos físicos da saúde a verem problemas com o modelo, mesmo quando trabalham dentro do modelo para suas profissões.

O segundo modelo é conhecido como modelo de limite linear, que afirma que a radiação de baixo nível (abaixo do limite dos mecanismos de reparo do corpo) não faz sentido contar para a probabilidade de desenvolver câncer. Afinal, se você substituir a bancada de fórmica em sua cozinha por uma de granito, a radioatividade natural do granito irá expô-lo a mais radiação, mas não há diferença na probabilidade de você ter câncer por causa do mudança. Ramsar, no Irã (que tem a radiação de fundo natural mais alta de qualquer lugar habitado na Terra) não tem taxas de câncer mais altas, na verdade elas são um pouco mais baixas, então por que não definir o limite para onde os mecanismos de reparo do corpo humano normal podem controlar algum dano e ENTÃO começar a usar o modelo linear de aumento na probabilidade de câncer?

O terceiro modelo, hormesis, dá um passo adiante. Em vários casos, como Ramsar, e um prédio de apartamentos em Taiwan que foi construído com aço contaminado com cobalto radioativo (fazendo com que os residentes fossem expostos a uma dose de radiação gama MUITO maior do que a média crônica, ou ao longo do tempo), as pessoas não apenas foram expostas a doses de radiação mais altas do que as típicas, mas tiveram taxas de câncer mais baixas quando outros fatores carcinogênicos conhecidos foram contabilizados. Esta é uma evidência de que ter uma exposição aumentada à radiação pode, de fato, estimular o sistema imunológico e tornar uma pessoa mais saudável, e reduzir a chance de essa pessoa ter câncer! Vários lugares no mundo realmente usam fontes radioativas como locais de cura, incluindo fontes de rádio no Japão, Europa e Estados Unidos, e as areias pretas de monazita no Brasil. Tem havido muito pouca pesquisa nesta área, uma vez que o modelo padrão de exposição à radiação diz que isso está efetivamente dando a alguém um risco muito maior de câncer.

Eu não sou um físico da saúde. Tornou-se uma espécie de hobby para mim no ano passado, mas este é um campo muito mais complexo do que a engenharia astronuclear. Como tal, não vou pesar no debate sobre qual dessas três teorias está certa, e apreciaria se a seção de comentários no blog não se tornasse uma guerra inflamada da física da saúde. Conversando com amigos meus que SÃO físicos da saúde (e a quem eu consulto quando esse assunto surge), tendo a inclinar-me em algum lugar entre o limite linear e as teorias hormonais de exposição à radiação, mas como observei antes, LNT é a lei da terra , e é nisso que este blog vai trabalhar principalmente.

A radiação (especialmente no contexto da energia nuclear) começa com a emissão de uma partícula ou raio de um radioisótopo ou do núcleo instável de um átomo. Isso é medido com o Curie (Cu), que é uma medida de quanta radioatividade EM GERAL é liberada, ou 3,7X10 ^ 10 emissões (alfa, beta, nêutron ou gama) por segundo. SI usa o termo Becquerels (Bq), que é simples: um decaimento = 1 Bq. Portanto, 1 Cu = 3,7X10 ^ 10 Bq. Por ser tão pequeno, megaBequerels (Mbq) é frequentemente usado, porque a menos que você esteja olhando para experimentos de laboratório altamente sensíveis, mesmo uma dúzia de Bq é efetivamente nada.

Cada tipo diferente de radiação afeta materiais e sistemas biológicos de maneira diferente, portanto, há outra unidade usada para descrever a energia produzida pela radiação sendo depositada em um material, a dose absorvida: este é o rad, e a unidade SI é o cinza (Gy) . O rad é definido como 100 ergs de energia depositada em um grama de material, e o cinza é definido como 1 joule de radiação absorvida por um quilograma de matéria. Isso significa que 1 rad = 0,01 Gy. Isso é visto principalmente para materiais inertes, como componentes do reator, materiais de blindagem, etc. Se estiver sendo usado para tecido vivo, isso geralmente é um sinal MUITO ruim, já que é basicamente usado apenas no caso de uma explosão nuclear ou grande acidente do reator. É usado no caso de uma dose aguda - ou súbita - de radiação, mas não para exposições de longo prazo.

Isso ocorre porque há muitas coisas que influenciam o quão ruim é uma dose de radiação em particular: se você tem um feixe gama que passa pela sua mão, por exemplo, é muito menos prejudicial do que se passar pelo seu cérebro ou estômago. É aqui que a medição final entra em jogo: na documentação da NASA e AEC, eles usam o termo rem (ou homem equivalente à radiação), mas em unidades SI é conhecido como Sievert. Este é o equivalente da dose, ou normalizando os efeitos de todos os diferentes tipos de radiação nos vários tecidos do corpo, aplicando um fator de qualidade a cada tipo de radiação para cada parte do corpo humano que é exposta a esse tipo de radiação. Se você já se perguntou o que os físicos da saúde fazem, é todo o trabalho oculto que acontece quando esse fator de qualidade é aplicado.

O resultado de tudo isso é a forma como a dose de radiação é avaliada. Há uma série de variáveis ​​que foram avaliadas na época (e atualmente são avaliadas, com isso como um ponto de partida eficaz para o teste de solo, que tem uma consideração minúscula, mas precisa ser avaliada no que diz respeito à liberação de radioatividade para o público em geral) . A exposição foi amplamente dividida em três tipos de exposição: corpo inteiro (5 rem / ano para um trabalhador ocupacional, 0,5 rem / ano para o público), pele, osso e exposição da tireoide (30 rem / ano ocupacional, 3 rem / ano para o público) para o público) e outros órgãos (15 rem / ano ocupacional, 1,5 rem / ano para o público). Em 1971, as diretrizes para o público foram alteradas para 0,5 rem / ano de corpo inteiro e 1,5 rem / ano para a população em geral, mas como foi observado (incluindo no Relatório Final de Efluentes da NRDS), isso era mais uma conveniência administrativa do que biomédica necessidade.

Padrões de liberação radiológica ocupacional de 1974, imagem via EPA

Considerações adicionais foram feitas para partículas de elemento combustível discretas ejetadas do núcleo - menos de uma chance em dez mil de que uma pessoa entraria em contato com um, e vários fatores foram considerados na determinação dessa probabilidade. A maior preocupação é que o contato com a pele pode resultar em lesão, com uma exposição acima de 750 rads (trata-se de uma medida de deposição de energia, não expressamente médica, pois é apenas um tipo de tecido que está sendo avaliado).

Finalmente, e talvez o mais complexo de abordar, é o efluente aerossolizado da pluma de exaustão, que pode ser tanto produtos de fissão gasosa (que não foram capturados pelos materiais revestidos usados) quanto de partículas pequenas o suficiente para flutuar na atmosfera por mais tempo duração - e possivelmente pode ser inalado. Os limites relevantes de exposição à radiação para esses testes para populações fora do local foram 170 mrem / ano de dose gama de corpo inteiro e uma dose de exposição da tireoide de 500 mrem / ano. A maior dose de corpo inteiro registrada no programa foi em 1966, de 20 mrem, e a maior dose de tireoide registrada foi de 1965 de 72 mrem.

O impacto sobre a saúde e o meio ambiente do desenvolvimento de testes de propulsão nuclear em Jackass Flats

Então, quão ruins foram esses testes sobre a liberação de material radioativo, exatamente? Considerando a área escassamente povoada, poucas pessoas - se houver alguma - que não estavam diretamente associadas ao programa receberam qualquer dose de radiação de material radioativo aerossolizado (inalável, partículas finas). Pelos regulamentos da época, nenhuma dose superior a 15% da dose permitida AEC / FRC (Federal Radiation Council, um dos primeiros conselhos consultivos de física da saúde) para o público em geral foi estimada ou registrada. A liberação real de produtos de fissão na atmosfera (com exceção do cádmio-115) nunca foi superior a 10% e, freqüentemente, inferior a 1% (a liberação de 115Cd foi de 50%). A grande maioria desses produtos de fissão tem vida muito curta, decaindo em minutos ou dias, então não houve muita - se alguma - mudança para a migração de precipitação (produtos de fissão ligados à poeira atmosférica que então caíram ao longo da pluma de exaustão do motor) fora do site de teste. De acordo com um estudo de 1995 do Departamento de Energia, a liberação total de radiação de todos os testes de propulsão nuclear Rover e Tory-II foi de aproximadamente 843.000 Curies. Para colocar isso em perspectiva, um explosivo nuclear produz 30.300.000 Curies por quiloton (dependendo do tamanho e da eficiência do explosivo), então a liberação total de radiação foi o equivalente a uma explosão equivalente a 30 toneladas de TNT.

Resumo de liberação radiológica, imagem via DOE

Essa liberação veio da migração dos produtos de fissão através do revestimento de metal e para o refrigerante de hidrogênio, ou devido ao revestimento ou falha do elemento de combustível, que resultou no hidrogênio quente atacando agressivamente os elementos de combustível de grafite e partículas de carboneto de combustível.

A quantidade de produto de fissão liberada é altamente dependente da temperatura e do nível de potência em que os reatores foram operados, da duração do teste, da rapidez com que os reatores foram colocados em potência total e de vários outros fatores. A amostragem real do efluente do reator ocorreu de três maneiras: amostragem por aeronaves equipadas com sensores especiais para radiação e material particulado, o amostrador de efluente "canhão Elefante" colocado na corrente de exaustão do motor e por análise química post mortem dos elementos de combustível para determinar o consumo de combustível, migração e estoque de produtos de fissão. Uma coisa a notar é que para os testes KIWI, a liberação de efluente não foi tão bem caracterizada quanto para os testes posteriores de Phoebus, NRX, Pewee e Forno Nuclear, então os dados para esses testes não são apenas mais precisos, mas muito mais completos também.

Offsite Dose Map, 1967 (um ano com liberação acima da média, e o primeiro a empregar melhores técnicas de amostragem) Imagem via EPA

Dois conjuntos de dados de aeronaves foram coletados: um (por LASL / WANL) foi de alturas fixas e transectos nas seis milhas ao redor da pluma de efluente, coletando o efluente particulado que seria usado (combinado com taxas de liberação conhecidas de 115Cd e análise post-mortem do reator) para determinar a liberação de estoque total de produto de fissão nessas altitudes e vetores, e foi descontinuado em 1967, o segundo método (NERC) usou um sistema de coordenadas fixas para medir o tamanho e a densidade da nuvem, utilizando um amostrador de partículas de massa, leito de carvão vegetal, amostrador criogênico, sensor de radiação externa e outros equipamentos, mas devido ao fato de que essas amostras foram coletadas a mais de dezesseis quilômetros dos testes do reator, é bem provável que mais produtos da fissão tenham se deteriorado ou caído no solo como precipitação radioativa , portanto, o esgotamento de grande parte do estoque de produtos da fissão poderia facilmente ter ocorrido no momento em que a nuvem atingiu os locais do avião. Essa técnica foi usada a partir de 1967.

O próximo método de amostragem também foi lançado em 1967 - a Elephant Gun. Esta foi uma sonda que foi presa diretamente no hidrogênio quente que saía do bocal e coletou vários moles do hidrogênio quente da corrente de exaustão em vários pontos ao longo do teste, que foram então armazenados em tanques de amostragem. Combinado com dados de temperatura e pressão de hidrogênio, análise de lixiviação de ácido de produtos de fissão e dados de amostra de gás, isso forneceu uma estimativa mais próxima da liberação do produto de fissão, bem como uma melhor visão dos produtos de fissão gasosos que foram liberado pelo motor.

Edifício de manutenção e desmontagem de motores no NRDC em construção, imagem via Wikimedia Commons

Finalmente, após o teste e o resfriamento, cada motor foi submetido a uma rigorosa inspeção post-mortem. Aqui, a quantidade de reatividade perdida em comparação com a quantidade de urânio presente, os níveis de potência e a duração do teste e a análise química e radiológica foram usadas para determinar quais produtos de fissão estavam presentes (e em quais proporções) em comparação com o que DEVERIA estar presente. Essa técnica aumentou a compreensão do comportamento do reator, do perfil neutrônico e da potência real obtida durante o teste, bem como da liberação radiológica na corrente de exaustão.

A liberação radioativa desses testes de motor variou amplamente, como pode ser visto na tabela acima, porém a quantidade total liberada pelo “mais sujo” dos testes do reator, o segundo teste Phoebus 1B, foi de apenas 240.000 Curies, e a maioria dos testes lançou menos de 2.000 Curies. Outra coisa que variou muito foi COMO a radiação foi liberada. A área imediata (dentro de alguns metros) do reator seria exposta à radiação durante a operação, na forma de radiação de nêutrons e gama. A pluma de exaustão conteria não apenas o propelente de hidrogênio (que não ficou no reator por tempo suficiente para acumular nêutrons adicionais e se transformar em deutério, muito menos trítio, em qualquer quantidade significativa), mas os produtos de fissão gasosa (a maioria dos quais o o corpo humano não é capaz de absorver, como 135Xe) e - se ocorrer erosão ou quebra do elemento combustível - uma certa quantidade de partículas que podem ter sido irradiadas ou conter combustível de fissão queimado ou não queimado.

Imagem via EPA

Essas partículas, e a nuvem de efluente criada pelo fluxo de propelente durante o teste, foram a principal preocupação para os humanos e o meio ambiente nesses testes. A razão para isso é que a radiação é capaz de se espalhar muito mais dessa maneira (uma vez emitida, e todas as outras coisas sendo iguais, a radiação segue em linha reta) e, mais especialmente, pode ser absorvida pelo corpo, por inalação ou ingestão , e alguns desses elementos não são apenas radioativos, mas também quimicamente tóxicos. Como complicação adicional, embora a radiação alfa e beta geralmente não sejam um problema para o corpo humano (sua pele para as duas partículas facilmente), quando elas estão DENTRO do corpo humano é um jogo totalmente diferente. Isso é especialmente verdadeiro para a tireoide, que é mais sensível do que a maioria à radiação e absorve iodo (131I é um radioisótopo bastante ativo) como ninguém. É por isso que, após um grande acidente nuclear (ou um ataque nuclear teórico), comprimidos de iodo, contendo um isótopo radio-inerte, são distribuídos: uma vez que a tireóide está cheia, o excesso de iodo radioativo passa pelo corpo desde que nada mais no corpo pode pegá-lo e armazená-lo.

Existem alguns fatores que determinam o quão longe esse particulado se espalhará, incluindo massa da partícula, temperatura, velocidade, altitude, vento (em várias altitudes), teor de umidade do ar (as partículas podem ser absorvidas em gotículas de água), altura da pluma , e uma série de outros fatores. O Relatório Final do Programa de Efluentes do NRDS aprofunda a modelagem usada e os métodos de coleta de dados usados ​​para coletar dados para refinar essas estimativas.

Outra coisa a considerar no contexto do Rover em particular é que os testes ao ar livre de armas nucleares estavam ocorrendo na área imediatamente ao redor dos testes do Rover, o que liberou FAR mais precipitação (por dezenas de ordens de magnitude), então contribuiu para um quantidade muito menor para a quantidade de radionucleídeos liberados no momento.

O programa de monitoramento de radiação externo, que incluiu amostragem de leite de vacas para estimar a exposição da tireoide, coletou dados até 1972 e todas as exposições medidas estavam bem abaixo dos limites de exposição definidos no programa.

Já que vimos o teste KIWI-TNT anteriormente, vamos dar uma olhada nos efeitos ambientais deste teste específico. Afinal, a explosão de um foguete nuclear deve ser o teste mais prejudicial, certo? Surpreendentemente, dez outros testes liberaram mais radioatividade do que o KIWI-TNT. As partículas discretas não viajaram mais do que 600 pés da explosão. A nuvem de efluente foi registrada de 4000 pés a 50 milhas a favor do vento do local de teste, e as aeronaves que monitoravam a nuvem foram capazes de rastreá-la até que ela ultrapassasse o oceano Pacífico (embora naquele ponto, ela fosse muito menos radioativa). No momento em que a nuvem se moveu 16.000 pés do local de teste, a maior dose de corpo inteiro da nuvem medida foi 1,27X10 ^ -3 rad (na estação 16-210), e a mesma estação registrou uma dose de inalação da tireóide de 4,55X10 ^ -3 rads. Isso mostra que mesmo o pior acidente possível com um reator do tipo NERVA tem apenas um impacto ambiental e biológico insignificante devido à radiação liberada ou à explosão do próprio reator, atestando ainda mais a segurança deste tipo de motor.

Mapa de distribuição de partículas discretas, imagem via LANL

Se você está curioso sobre informações mais detalhadas sobre os efeitos radiológicos e ambientais dos testes KIWI-TNT, vinculei os relatórios (incrivelmente detalhados) sobre o experimento no final deste post.

Distribuição radiológica de monitores de partículas, imagem via LANL

Os resultados do programa de teste Rover

Ao longo do programa de testes do Rover, os elementos de combustível foram a fonte da maioria dos problemas não relacionados ao H2. Enquanto outros problemas, como instrumentação, também foram encontrados, a principal dor de cabeça foram os próprios elementos de combustível.

Muitos dos problemas se resumiam às propriedades mecânicas e químicas da matriz de combustível de grafite. O grafite é facilmente atacado pelo H2 quente, levando à erosão maciça do elemento combustível, e várias soluções foram experimentadas ao longo da série de testes. Com exceção do reator KIWI-A (que usava placas de combustível não revestidas e foi fortemente afetado pelo propelente), cada um dos reatores apresentava FEs revestidos em maior ou menor extensão, usando uma variedade de métodos e materiais. Freqüentemente, carboneto de nióbio (NbC) era o material de revestimento preferido, mas existem outras opções, como tungstênio.

Dispositivo de revestimento CVD, imagem cortesia de LANL

A deposição de vapor químico era uma opção inicial, mas infelizmente não era possível revestir de forma consistente e segura o interior dos tubos do propelente, e a expansão térmica diferencial era um grande desafio. À medida que os elementos de combustível aqueciam, eles se expandiam, mas em uma taxa diferente da do revestimento. Isso levou à rachadura e, em alguns casos, à descamação do material revestido, levando à exposição do grafite ao propelente e à erosão. As pastilhas usinadas eram uma forma de revestimento mais confiável, mas exigiam mais complexidade para instalar.

O exterior dos elementos de combustível originalmente não era revestido, mas com o passar do tempo, era óbvio que isso também precisava ser resolvido. Algum propelente vazaria entre os prismas, levando à erosão da parte externa dos elementos de combustível. Isso mudou a geometria de fissão do reator, levou à liberação de produto de fissão e combustível por meio da erosão e enfraqueceu os elementos de combustível já um tanto frágeis. Normalmente, porém, a deposição de vapor de NbC foi suficiente para eliminar este problema

Felizmente, esses problemas são exatamente o tipo de coisa que CFEET e NTREES são capazes de testar, e esses sistemas são muito mais econômicos de operar do que um NTR de queima quente. É provável que, no momento em que um teste de fogo quente estiver sendo conduzido, os elementos de combustível estejam completamente caracterizados química e termicamente, portanto, esses problemas não devem surgir.

O outro problema com os elementos de combustível foi falha mecânica devido a uma série de problemas. A pressão em todo o sistema muda drasticamente, o que leva a tensões diferenciais ao longo do comprimento dos elementos de combustível. Os elementos de combustível originais, com suporte mínimo, muitas vezes sofriam rachaduras transversais, levando ao bloqueio do propelente e à erosão. Em vários casos, depois que o elemento combustível quebrou dessa forma, a extremidade quente do elemento combustível seria ejetada do núcleo.

Imagem do tubo de amarração do Rover cortesia da NASA

Isso levou ao desenvolvimento de uma estrutura que ainda é encontrada em muitos projetos NTR hoje: o tubo de ligação. Este é um prisma hexagonal, do mesmo tamanho que os elementos combustíveis, que suporta os elementos combustíveis adjacentes ao longo de seu comprimento. Além de ser um meio de suporte, eles também são uma importante fonte de moderação de nêutrons, devido ao fato de serem resfriados por propelente de hidrogênio do bocal de resfriamento regenerativo. O hidrogênio faria duas passagens pelo tubo de ligação, uma em cada direção, antes de ser injetado na extremidade fria do reator para ser alimentado através dos elementos de combustível.

Os tubos de ligação não eliminaram todos os problemas mecânicos que o elemento de combustível enfrentou. De fato, mesmo no teste NF-1, foi observada uma falha extensa do elemento de combustível, embora nenhum dos elementos de combustível tenha sido ejetado do núcleo. No entanto, novos tipos de elementos de combustível estavam sendo testados (carboneto de urânio-carboneto de zircônio composto de carbono e carboneto (U, Zr) C), que ofereciam melhores propriedades mecânicas, bem como tolerâncias térmicas mais altas.

Os projetos NTR atuais ainda geralmente incorporam tubos de ligação, especialmente porque o urânio de baixo enriquecimento, que é a principal diferença notável no projeto mais recente da NASA, requer um espectro de nêutrons muito mais moderado do que um reator HEU. No entanto, a capacidade de suportar o elemento combustível mecanicamente ao longo de todo o seu comprimento (em vez de apenas na extremidade fria, como era comum em projetos NERVA) também aumenta a estabilidade mecânica do reator e ajuda a manter a integridade dos elementos de combustível.

Os reatores KIWI-B e Phoebus tiveram projetos bem-sucedidos o suficiente para serem usados ​​como pontos de partida para os motores NERVA. NERVA é um acrônimo para Energia Nuclear para Aplicações de Veículos Foguetes, e ocorreu em duas partes: NERVA-1, ou NERVA-NRX, desenvolveu o reator KIWI-B4D em um projeto mais prototípico de vôo, incluindo equilíbrio de otimização de planta, aprimorado documentação do funcionamento do reator e estudos de fluxo de refrigerante. O segundo grupo de motores, NERVA-2, era baseado no tipo de reator Phoebus 2 da Rover, e acabou finalmente sendo desenvolvido no NERVA-XE, que deveria ser o motor que impulsionaria a missão tripulada a Marte. O teste NERVA-XE PRIME foi do motor em configuração de vôo, com todas as bombas turbo, tanques de refrigerante, instrumentação e até mesmo a orientação do reator (bico para baixo, em vez de para cima) estavam da maneira que teria sido configurada durante a missão .

Instalação e verificação de pré-incêndio NERVA XE-PRIME, imagem via Westinghouse Engineer (1974)

A série de testes XE-PRIME durou nove meses, de dezembro de 1968 a setembro de 1969, e envolveu 24 partidas e paradas do reator. Usando um reator de 1140 MW, operando na temperatura de exaustão de 2272 K e produzindo 247 kN de empuxo a 710 segundos de impulso específico. Isso incluiu o uso de novas técnicas de inicialização a partir de condições de partida a frio, verificação dos sistemas de controle do reator - incluindo o uso de diferentes subsistemas para ser capaz de manipular a energia e a temperatura operacional do reator - e demonstrou que o programa NERVA havia produzido com sucesso um nuclear pronto para o vôo foguete térmico.

Terminando uma Era: Teste de Projeto Pós-Voo

Perto do final do programa Rover, o projeto do motor em si foi amplamente finalizado, com o teste NERVA XE-Prime demonstrando um motor testado em configuração de vôo (com todo o hardware de suporte relevante no lugar, e o bico apontando para baixo), no entanto, alguns desafios permaneceram para os próprios elementos de combustível. Para ter um programa de testes mais econômico para elementos de combustível, dois novos reatores foram construídos.

PEWEE Test Stand, imagem cortesia de LANL

O primeiro, Pewee, era um motor de foguete nuclear menor (75 klbf, o mesmo tamanho do novo NTR da NASA), que conseguiu ter o núcleo substituído para várias rodadas de testes, mas foi usado apenas uma vez antes do cancelamento do programa - mas não antes de atingir o impulso específico mais alto de qualquer um dos motores Rover. Este reator nunca foi testado fora de uma configuração de placa de ensaio, porque ele nunca foi feito para ser usado em vôo. Em vez disso, foi uma medida de economia de custos para a NASA e o AEC: devido ao seu "tamanho menor, era muito mais barato de construir e, devido à sua" taxa de fluxo de propelente mais baixa, também era muito mais fácil de testar. Isso significava que os elementos de combustível experimental que passaram por testes térmicos e de irradiação poderiam ser testados em um ambiente de fluxo total alimentado por fissão a um custo mais baixo.

Vista transversal NF-1, imagem cortesia da NASA

O segundo foi o Forno Nuclear, que imitou o ambiente neutrônico e as taxas de fluxo do propelente dos NTRs maiores, mas não foi configurado como um motor. Este reator também foi o primeiro a incorporar um lavador de efluentes, capturando a maioria dos produtos da fissão não gasosos e reduzindo significativamente a liberação radiológica no meio ambiente. Ele também atingiu as temperaturas operacionais mais altas de qualquer um dos reatores testados em Nevada, o que significa que as tensões térmicas nos elementos de combustível seriam maiores do que seriam experimentadas em uma queima de potência total de um NTR real. Novamente, este foi projetado para poder ser reutilizado repetidamente a fim de maximizar o benefício financeiro da construção do reator, mas foi usado apenas uma vez antes do cancelamento do programa. Os elementos de combustível foram testados em latas separadas, e nenhum deles era a forma de combustível composto de grafite: em vez disso, CERMET (então conhecido como composto) e elementos de combustível de carboneto, que estavam em desenvolvimento, mas não amplamente usados ​​em reatores Rover ou NERVA, foram testado. Este sistema também usou um sistema de limpeza de efluentes, mas isso é algo que veremos em mais detalhes no próximo post, pois continua sendo um método teoricamente possível de fazer testes de fogo quente para um NTR moderno.

Reator NRX A, no qual o PAX foi baseado, imagem cortesia da NASA

Westinghouse ANL também propôs um projeto baseado no NERVA XE, chamado de reator PAX, que seria projetado para ter seu núcleo substituído, mas isso nunca saiu das pranchetas. Mais uma vez, o foco mudou para bancos de teste NTR experimentais de menor custo e manutenção mais fácil, embora este fosse muito mais próximo da configuração de vôo.Isso teria sido muito útil, porque não apenas o combustível seria submetido a um ambiente radiológico e químico muito semelhante, mas as ligações mecânicas, caminhos de fluxo de hidrogênio e problemas harmônicos e gás-dinâmicos resultantes poderiam ser avaliados em um ambiente quase prototípico. No entanto, este reator nunca foi testado.

Como vimos, o teste de fogo quente era algo que preocupava excepcionalmente os engenheiros envolvidos nos programas Rover e NERVA. Sim, houve liberações radiológicas no meio ambiente que estão bem acima e além do que seria considerado hoje, mas quando comparadas às liberações dos testes de armas nucleares a céu aberto que estavam ocorrendo nas proximidades imediatas, elas foram minúsculas.

Hoje, porém, esses lançamentos seriam inaceitáveis. Portanto, na próxima postagem do blog, vamos ver as opções e restrições para uma instalação de teste moderna para NTR, incluindo uma análise das propostas ao longo dos anos e o plano atual da NASA & # 8217s para testes de NTR. Isso incluirá o sistema de filtragem de exaustão no Forno Nuclear, um sistema de filtragem mais complexo (mas também mais eficaz) proposto para o reator de leito de seixos SNTP (TimberWind), um conceito de filtragem geológica chamado SAFE e um sistema de captura e combustão de exaustão completo que poderia ser instalado na instalação de teste de foguetes atual da NASA & # 8217s no Centro Espacial Stennis.

Este post já começou e espero lançá-lo nas próximas semanas. Estou ansioso para ouvir todos os seus comentários e, se houver mais recursos sobre este assunto que eu & # 8217 perdi, compartilhe-os nos comentários abaixo!

Site Los Alamos Pajarito

Los Alamos Critical Assemblies Facility, LA-8762-MS, por R. E. Malenfant,
https://www.osti.gov/servlets/purl/6463833

A History of Critical Experiments at Pajarito Site, LA-9685-H, por R.E. Malenfant, 1983

Relatórios de Impactos Ambientais e Liberação Radiológica

NRDS Nuclear Rocket Effluent Program, 1959-1970 NERC-LV-539-6, por Bernhardt et al, 1974

Relatório de monitoramento externo para NRX-A2 1965

Medições de radiação do efluente do Experimento LA-3395-MS Kiwi-TNT, por Henderson et al, 1966

Efeitos Ambientais do Efluente KIWI-TNT: Uma Revisão e Avaliação LA-3449, por R.V.Fultyn, 1968

Desenvolvimento Tecnológico e Testes Não Nucleares

Uma revisão do desenvolvimento de elemento de combustível para motores de foguete nuclear LA-5931, por J.M. Taub

Rover Nuclear Rocket Engine Program: Overview of Rover Engine Tests N92-15117, por J.L. Finseth, 1992

Relatório de teste do forno nuclear 1 LA-5189-MS, W.L. Kirk, 1973

KIWI-Transient Nuclear Test LA-3325-MS, 1965

Kiwi-TNT Explosion LA-3551, de Roy Reider, 1965

An Analysis of the KIWI-TNT Experiment with MARS Code Journal of Nuclear Science and Technology, Hirakawa et al. 1968

Recursos Diversos

Safety Neutronics for Rover Reactors LA-3558-MS, Laboratório Científico de Los Alamos, 1965

O comportamento dos produtos de fissão durante os testes do reator de foguete nuclear LA-UR-90-3544, por Bokor et al, 1996


Quais eram os princípios operacionais do MITI do Japão durante as décadas de 1950 e 60? - História

Judeus de Nova York? . A convenção foi realizada em Wisconsin. "[Em MACDONALD, 1998, p. 72]

"O problema surgiu", diz Arthur Liebman,

"aos meios para cumprir o objetivo de americanizar o que foi um movimento socialista essencialmente judeu e europeu. [LIEBMAN, A., 1986, p. 340]. A presença desproporcional de judeus e estrangeiros nascidos geralmente no movimento socialista juntamente com o a relativa ausência de não judeus e nativos americanos incomodava muitos de seus líderes, judeus e não judeus. O Partido Comunista, por exemplo, na década de 1920 era composto quase inteiramente por judeus e nascidos no estrangeiro, a maioria dos quais em línguas estrangeiras federações. Só os judeus nas décadas de 1930 e 1940 representavam aproximadamente 40 a 50 por cento dos membros do Partido Comunista. " [LIEBMAN, A., |
1986, p. 339]

Nathaniel Weyl observa que:

"Embora os líderes comunistas sejam normalmente taciturnos sobre a extensão

apenas nove 'americano'. Com base na análise dos sobrenomes, Glazer concluiu que todos os professores 'Rank and File' (comunistas) colocados em julgamento pelo Sindicato dos Professores em 1932 eram judeus. "[WEYL., N., 1968, p. 118-119]

A associação popular dos judeus com o comunismo ", observa Peter Novick," datava da Revolução Bolchevique. A maioria dos 'agitadores alienígenas' deportados dos Estados Unidos durante o Pânico Vermelho após a Primeira Guerra Mundial eram judeus. "[NOVICK, P., 1999, p. 92] Os principais julgamentos dos tribunais americanos do século XX incluíram os de Charles Schenck, general secretário do Partido Socialista, que foi preso por sedição em 1919: "O caso marcou a primeira vez que a Suprema Corte decidiu até que ponto o governo dos Estados Unidos pode limitar o discurso." [KNAPPMAN, E., 1995, p. 61, 60] Da mesma forma, em 1927 a Suprema Corte "confirmou a condenação do socialista Benjamin Gitlow sob uma lei do estado de Nova York por defender a anarquia criminal." [KNAPPMAN, E., 1995, p. 63]

Peter Pulzer observou certa vez que, nas fileiras socialistas alemãs do início do século 20, "suas origens desproporcionalmente burguesas [dos judeus] e sua tendência de derivar seus pontos de vista dos primeiros princípios ao invés da experiência empírica, os levou a uma posição dominante [no] os debates do partido. " [WEISBERGER, A., 1997, p. 93] Arthur Liebman observa os antecedentes da eleição de Morris Hillquit para a presidência do Partido Socialista Americano em 1932:

“Hilquit, por sua vez, trouxe o não mencionável para o centro do palco em um discurso emocionado, declarando: 'Peço desculpas por ter nascido no exterior, ser judeu e viver na cidade de Nova York.' A referência oblíqua de Hilquit ao anti-semitismo garantiu-lhe a vitória. Como Thomas [o oponente de Hilquit para a presidência] comentou mais tarde: 'Assim que a questão anti-semita foi levantada, embora injustamente, inclinei-me a pensar que seria melhor que Hillquit vencesse.' O Partido Socialista não queria correr o risco de ser rotulado de anti-semita. " [LIEBMAN, A., 1986, p. 341]

Algumas estimativas sugerem que 60% da liderança dos radicais SDS (Estudantes por uma Sociedade Democrática) dos anos 60 eram judeus (radicais bem conhecidos incluíam Kathy Boudin, Bettina Aptheker, entre muitos outros). [PRAGER, p. 61] De 1960 a 1970, cinco dos nove presidentes em mudança da organização eram homens judeus (Al Haber, Todd Gitlin e os três últimos da década: Mike Spiegel, Mike Klonsky e Mark Rudd). [SALE, K., 1973, p. 663]. "Talvez 50% dos estudantes revolucionários por uma sociedade democrática", diz Milton Plesur, "e cerca de 50 a 75% daqueles em atividades radicais no campus no final dos anos 1960 eram judeus." [PLESUR, M., 1982, p. 137] Como Stanley Rothman e S. Robert Lichter observam:

"O SDS inicial era fortemente judeu tanto em sua liderança quanto em seus quadros ativistas. Os principais líderes do SDS incluíam Richard Flacks, que desempenhou um papel importante em sua formação e crescimento, bem como Al Haber, Robb Ross, Steve Max, Mike Spiegel, Mike Klonsky, Todd Gitlin, Mark Rudd e outros. De fato, nos primeiros anos, o SDS foi amplamente financiado pela League for Industrial Democracy, uma organização socialista (mas anticomunista) fortemente judaica. Os primeiros sucessos do SDS foram em universidades de elite que continham um número substancial de estudantes judeus e professores judeus simpáticos, incluindo a Universidade de Wisconsin em Madison, Brandeis, Oberlin e a Universidade da Califórnia. Em Berkeley, os líderes do SDS não desconheciam suas raízes. Como disse Robb Ross, descrevendo a situação no Unversity of Wisconsin no início dos anos 1960, "minha impressão é que a esquerda em Madison não é apenas uma nova esquerda, mas um renascimento da antiga. Com todos os problemas que isso acarreta. Estou impressionado com a falta de Wisconsi n-nascidos [na esquerda da área de Madison] e a preponderância massiva de judeus de Nova York. A situação na Universidade de Minnesota é semelhante '. [Pesquisador] Berns e seus associados descobriram que 83 por cento de uma pequena amostra de ativistas radicais estudada na Universidade da Califórnia no início dos anos 1970 eram de origem judaica. "[ROTHMAN / LICHTER, 1982, p. 61]

Susan Stern estava entre os que recorreram à violenta organização clandestina Weatherman. Ted Gold, outro membro do Weatherman, morreu quando uma bomba que ele estava fazendo explodiu em suas mãos. [ROTHMAN / LICHTER, 1982, p. 61] Em um incidente icônico de 1970, três dos quatro estudantes mortos a tiros por Guardas Nacionais em uma famosa demonstração da Kent State University eram judeus. [BYARD, K., 5-5-00]

Um estudo de Joseph Adelson, da Universidade de Michigan, um dos focos americanos do ativismo da década de 1960, sugeriu que 90% daqueles definidos como politicamente "estudantes radicais" naquela escola eram judeus. [PRAGER, p. 61, 66] E, "quando, por exemplo, o Queens College SDS realizou uma manifestação em um centro de indução vários anos atrás", escreveu Gabriel Ende, "eles escolheram cantar canções de Natal para dramatizar sua atividade, embora o presidente e quase todos os membros eram judeus. " [ENDE, G., 1971, p. 61]

"Em instituições de elite como a Universidade de Chicago, 63 por cento dos estudantes radicais eram judeus. Tom Hayden pode ter sido o nome mais famoso na Universidade de Michigan SDS, mas 90 por cento dos alunos restantes [naquela escola] vieram de de origem judaica "e nacionalmente, 60 por cento dos membros do SDS eram judeus. Como meu outrora amigo Paul Breines escreveu sobre minha alma mater, a Universidade de Wisconsin," o fermento real em toda a cena foi
os estudantes judeus de Nova York em Wisconsin '. Ainda em 1946, um terço dos judeus da América tinha uma visão favorável da União Soviética. "[RADOSH, R., 6-5-01]

Décadas antes, observe Rothman e Lichter:

"A American Student Union, o grupo estudantil radical mais proeminente durante a década de 1930, estava fortemente concentrada nas faculdades e universidades de Nova York com grandes matrículas de judeus. E em outros campi,
tal como a Universidade de Illinois, porções substanciais de seus membros limitados eram estudantes de origem judaica da cidade de Nova York. "[ROTHMAN / LICHTER, 1982, p. 101]


Assista o vídeo: ENTENDA A DÉCADA DE 1970.