Revisão: Volume 40

Revisão: Volume 40

  • Primeira Guerra Mundial
  • História Militar
  • Biografia
  • Segunda Guerra Mundial
  • Império Romano

Na sombra da política do grande poder: por que Nehru apoiou a admissão da RPC no Conselho de Segurança

No início da década de 1950, o primeiro-ministro da Índia, Jawaharlal Nehru, recusou sugestões de que a Índia se tornasse um membro permanente do Conselho de Segurança. De acordo com as sugestões, a Índia tomaria o assento da China ocupado pela República da China (RoC) ou se tornaria o sexto membro ao lado do RoC. Nehru recusou essas aberturas, argumentando que a República Popular da China (RPC) deveria ocupar o assento da China no Conselho de Segurança. Este estudo verifica por que a Índia recusou ofertas aparentemente boas e, em vez disso, defendeu a causa da RPC em um momento em que existiam diferenças políticas marcantes entre eles. Embora alguns tenham analisado a posição da Índia estritamente em termos bilaterais, este estudo expõe a rede. Ao examinar de perto os escritos e correspondências de Nehru, ele argumenta que o apoio de Nehru foi baseado em sua compreensão da RPC e sua posição como uma grande potência nas relações internacionais. Os desenvolvimentos do início do século XX lhe ensinaram que grandes potências que foram condenadas ao ostracismo se tornaram uma fonte de instabilidade. Em uma época que viu o lançamento de bombas nucleares, o custo de uma RPC insatisfeita seria trágico. Para estabilizar o sistema, era necessário acomodar a PRC no Conselho de Segurança e dar-lhe direito de veto. Isso amenizaria o PRC e controlaria suas tendências revisionistas.


Referências

1 Para exemplos, sínteses e críticas, ver Benford, Robert D. e Hunt, Scott A., “Dramaturgy and Social Movements: The Social Construction and Communication of Power”, Sociological Inquiry, 62 (1992), pp. 35-55 CrossRefGoogle Scholar Boggs, Carl, Movimentos Sociais e Poder Político. Formas emergentes de radicalismo no oeste (Filadélfia, 1986) Google Scholar Brass, Tom, "Moral Economists, Subalterns, New Social Movements, and the (Re-) Emergence of a (Post-) Modernized (Middle) Peasant", Journal of Peasant Studies, 18 (1991), pp. 173 - 205 CrossRefGoogle Scholar Calhoun, Craig, “'New Social Movements' of the Early 19 Century”, Social Science History, 17 (1993), pp. 385 - 428 Google Scholar Chazel, Francis (ed.), Ação coletiva et mouvements sociaux (Paris, 1993) Google Scholar Cohen, Jean L. e Arato, Andrew, Sociedade Civil e Teoria Política (Cambridge, 1992) Google Scholar Deneckere, Gita, “Norm en deviantie. Een bijdrage over diagnoses van collectieve populaire actie in de Nieuwste Geschiedenis ”, Tijdschrift voor Sociale Geschiedenis, 16 (1990), pp. 105 - 127 Google Scholar Duyvendak, Jan Willem, van der Heijden, Hein-Anton, Koopmans, Ruud e Wijmans, Luuk (eds), Tussen Verbeelding en Macht. 25 jaar nieuwe sociale bewegingen in Nederland (Amsterdam, 1992) Google Scholar Eyerman, Ron e Jamison, Andrew, Social Movements. A Cognitive Approach (University Park, Pennsylvania, 1991) Google Scholar Giugni, Marco and Kriesi, Hanspeter, "Nouveaux mouvements sociaux dans les années '80: Evolution et perspectives", Annuaire suisse de science politique, 30 (1990), pp. 79 - 100 Google Scholar Giugni, Marco e Passy, ​​Florença, "Etat et nouveaux mouvements sociaux, comparaison de deux cas contrastés: la France et la Suisse", Revue Suisse de Sociologie, 19 (1993), pp. 545 - 570 Google Scholar Melucci , Alberto, Nômades do Presente. Movimentos sociais e necessidades individuais na sociedade contemporânea (Filadélfia, 1989) Google Scholar e “Liberation or Meaning? Movimentos Sociais, Cultura e Democracia ”, Desenvolvimento e Mudança, 23 (1992), pp. 43-77 Morris, Aldon D. e Mueller, Carol McClurg (eds), Frontiers in Social Movement Theory (New Haven, 1992) Google Scholar Ohlemacher, Thomas, Brücken der Mobilisierung. Soziale Relais und persönliche Netzwerke em Bürgerinitiativen gegen militärischen Tiefflug (Wiesbaden, 1993) Google Scholar Rucht, Dieter (ed.). Research on Social Movements: The State of the Art in Western Europe and the USA (Frankfurt and Boulder, 1991) Google Scholar Touraine, Alain, “An Introduction to the Study of Social Movements”, Social Research, 52 (1995), pp. 749 - 788 Google Scholar e “La Crise de I'Etat-Nation”, Revue Internationale de Politique Compare, 1 (1995), pp. 341–350 Zdravom'islova, E. A., Paradigm'i Zapadnoi Sočiologii obščestvenn'ich dviženii (São Petersburgo, 1993) Google Scholar.

2 Marshall, T.H. , Citizenship and Social Class (Cambridge, 1950) Google Scholar. Para explicações, críticas e extensões de Marshall, consulte Barbalet, JM, Citizenship (Minneapolis, 1988) Google Scholar Somers, Margaret R., “Citizenship and the Place of the Public Sphere: Law, Community, and Political Culture in the Transition to Democracy ”, American Sociological Review, 58 (1993), pp. 587 - 620 CrossRefGoogle Scholar Soysal, Yasemin Nuhoglu, Limits of Citizenship. Migrantes e membros pós-nacionais na Europa (Chicago, 1994) Google Scholar e Turner, Bryan S. (ed.), Citizenship and Social Theory (Newbury Park, 1993) Google Scholar.

3 Para o vigor contínuo da história social e empreendimentos intimamente relacionados na sociologia histórica, ver Agirreazkuenaga, Joseba e Urquijo, Mikel (eds), Storia Locale e Micro-storia: Due Visione in Confronto (Bilbao, 1993) Google Scholar Berlanstein, Lenard R. (ed.), Rethinking Labour History (Urbana, 1993) Google Scholar Burke, Peter, History and Social Theory (Ithaca, 1992) Google Scholar e A Arte da Conversação (Ithaca, 1993) Casanova, Julián, La Historia Social y los Historiadores (Barcelona, ​​1991) Google Scholar Ginzburg, Carlo, Clues, Myths and the Historical Method (Baltimore, 1986) Google Scholar Ginzburg, Carlo e Poni, Carlo, “ The Name and the Game: Unequal Exchange and the Historiographic Marketplace ”, em Muir, Edward and Ruggiero, Guido (eds), Microhistory and the Lost Peoples of Europe (Baltimore, 1991) Google Scholar Kalb, Don,“ Frameworks of Culture and Class in Historical Research ", Theory and Society, 22 (1993), pp. 513 - 537 CrossRefGoogle Scholar Lloyd, Christopher, The Structures of History (Oxford, 1993) Google Scholar Monk-konen, Erik," Lessons of Social Science History ", Social Science History, 18 (1994), pp. 161 - 168 CrossRefGoogle Scholar Morawska, Ewa e Spohn, Willfried, “'Cultural Pluralism' in Historical Sociology: Recent Theoretical Directions”, em Crane, Diana (ed.), The Sociology of Cultura. Emerging Theoretical Perspectives (Oxford, 1994) Google Scholar Palmer, Bryan D., Descent into Discourse. A reificação da linguagem e a escrita da história social (Filadélfia, 1990) Google Scholar e "Teoria crítica, materialismo histórico e o fim ostensivo do marxismo: a pobreza da teoria revisitada", Revista Internacional de História Social, 38 (1993), pp. 133-162 Hernanz, Germán Rueda (ed.), Doce Estudios de Historiografla Contempordnea (Santander, 1991) Google Scholar Smith, Dennis, The Rise of Historical Sociology (Filadélfia, 1991) Google Scholar Zunz, Olivier (ed.), Reliving the Past. The Worlds of Social History (Chapel Hill, 1985) Google Scholar. Para visões mais céticas e pós-modernas das perspectivas de conhecimento sistemático dos processos sociais, ver Ashmore, Malcolm, Wooffitt, Robin e Harding, Stella (orgs), “Humans and Others. The Concept of 'Agency' and Its Attribution ”, edição especial de American Behavioral Scientist, 37 (1994) Google Scholar Boyarin, Jonathan,“ Space, Time, and the Politics of Memory ”, in Boyarin, Jonathan (ed.), Remapping Memória. The Politics of TimeSpace (Minneapolis, 1994) Google Scholar Cohen, David William, The Combing of History (Chicago, 1994) Google Scholar Hawthorn, Geoffrey, Plausible Worlds. Possibility and Understanding in History and the Social Sciences (Cambridge, 1991) CrossRefGoogle Scholar Joyce, Patrick, “The End of Social History? ”, Social History, 20 (1995), pp. 73 - 92 CrossRefGoogle Scholar, e Rancière, Jacques, Les mots de l'histoire. Essai de poétique du savoir (Paris, 1992) Google Scholar.

4 Ashcraft, Richard, "Liberal Political Theory and Working-Class Radicalism in Nineteenth-Century England", Political Theory, 21 (1993), pp. 249 - 272 CrossRefGoogle Scholar Bohstedt, John, "The Myth of the Feminine Food Riot: Women as Proto-Citizens in English Community Politics, 1790–1810 ”, em Applewhite, Harriet B. e Levy, Darline G. (eds), Women and Politics in the Age of the Democratic Revolution (Ann Arbor, 1990) Google Scholar Bjorn, Claus, Grant, Alexander e Stringer, Keith J. (eds), Social and Political Identities in Western History (Copenhagen, 1994) Google Scholar Calhoun, Craig, “The Problem of Identity in Collective Action”, em Huber, Joan (ed. ), Macro-Micro Linkages in Sociology (Newbury Park, 1991) Google Scholar e "Nationalism and Ethnicity", Revisão Anual de Sociologia, 19 (1993), pp. 211-239 Claeys, Gregory, "As Origens dos Direitos do Trabalho: Republicanismo, Comércio e a Construção da Teoria Social Moderna na Grã-Bretanha, 1796-1805", Journal of Modern History, 66 ( 1994), pp. 249 - 290 CrossRefGoogle Scholar Colley, Linda, Britons. Forging the Nation 1707–1837 (New Haven, 1992) Google Scholar Dickinson, Harry T., “Popular Loyalism in Britain in the 1790s”, em Eckhart, Hellmuth (ed.), The Transformation of Political Culture. Inglaterra e Alemanha no Final do Século XVIII (Londres, 1990) Google Scholar Epstein, James, “Compreendendo o Cap da Liberdade: Prática Simbólica e Conflito Social na Inglaterra do Início do Século XIX”, Passado e Presente, 122 (1989), pp. 75 - 118 CrossRefGoogle Scholar e "The Constitutional Idiom: Radical Reasoning, Rhetoric and Action in Early 19 Century England", Journal of Social History, 23 (1990), pp. 553–574 Hanagan, Michael P., "New Perspectives on Class Formation: Culture, Reproduction, and Agency", Social Science History, 18 (1994), pp. 77-94 CrossRefGoogle Scholar Østergard, Uffe, “'Desnacionalizando' História Nacional. The Comparative Study of Nation-States ", Culture and History, 9-10 (1991), pp. 9-41 Google Scholar e" Camponeses e dinamarqueses: a identidade nacional dinamarquesa e cultura política ", Estudos Comparativos em Sociedade e História, 34 (1992), pp. 3-27 Sahlins, Peter, Boundaries. The Making of France and Spain in the Pyrenees (Berkeley, 1989) Google Scholar Sewell, William H. Jr, "A Theory of Structure: Duality, Agency, and Transformation", American Journal of Sociology, 98 (1992), pp. 1 - 29 CrossRefGoogle Scholar Somers, Margaret R., "Narrativity, Narrative Identity, and Social Action: Rethinking English Working-Class Formation", Social Science History, 16 (1992), pp. 591 - 630 CrossRefGoogle Scholar Steinberg, Marc W., "The Dialogue of Struggle: The Contest over Ideological Boundaries in the Case of London Silk Weavers in the Early 19 Century", Social Science History, 18 (1994), pp. 505 - 542 CrossRefGoogle Scholar Tarrow, Sidney, Power in Movement (Cambridge , 1994) Google Scholar Tilly, Charles, "Social Movements as Historically Specific Gusters of Political Performances", Berkeley Journal of Sociology, 38 (1993 - 1994), pp. 1 - 30 Google Scholar e Contenção popular na Grã-Bretanha, 1758-1834 (Cambridge, 1995) Traugott, Mark, "Barricades as Repertoire: Continuities and Discontinuities in the History of French Contention", Social Science History, 17 (1993), pp. 309 - 323 CrossRefGoogle Scholar.

5 Akerlof, George A., "Gift Exchange and Efficiency Wage Theory: Four Views", American Economic Review Proceedings, 74 (1984), pp. 79-83 Google Scholar Baron, James N. e Hannan, Michael T., "The Impact of Economics on Contemporary Sociology ", Journal of Economic Literature, 32 (1994), pp. 1111 - 1146 Google Scholar Carroll, Glenn R. e Harrison, J. Richard," On the Historical Efficiency of Competition between Organizational Populations ", American Journal of Sociology, 100 (1994), pp. 720 - 749 CrossRefGoogle Scholar Chandler, Alfred, "Organizational Capabilities and the Economic History of the Industrial Enterprise", Journal of Economic Perspectives, 6 (1992), pp. 79 - 100 CrossRefGoogle Scholar Coase, Ronald, "The Institutional Structure of Production", American Economic Review, 82 (1992), pp. 713 - 719 Google Scholar Granovetter, Mark, "The Sociological and Economic Approaches to Labour Markets", em Farkas, George and England, Paula (eds), Industries, Firms, and Jobs: Sociological and Economic Approaches (New York, 1988) Google Scholar Granovetter, Mark e Tilly, Charles, “Inequality and Labor Processes”, em Smelser, Neil J. (ed.), Handbook of Sociology (Newbury Park, 1988) Google Scholar Portes, Alejandro (ed.), The Economic Sociology of Immigration (Nova York, 1995) Google Scholar Portes, Alejandro e Sensenbrenner, Julia, “Embeddedness and Immigration :. Notes on the Social Determinants of Economic Action ”, American Journal of Sociology, 98 (1993), pp. 1320-1350 CrossRefGoogle Scholar Reskin, Barbara e Roos, Patricia A., Job Queues, Gender Queues. Explaining Women's Inroads into Male Occupations (Filadélfia, 1990) Google Scholar Simon, Herbert, “Organizations and Markets”, Journal of Economic Perspectives, 5 (1991), pp. 25-44 CrossRefGoogle Scholar Tilly, Chris e Tilly, Charles, “Capitalist Work and Labour Markets ”, em Smelser, Neil J. e Swedberg, Richard (eds), Handbook of Economic Sociology (New York e Princeton, 1994) Google Scholar White, Harrison,“ Varieties of Markets ”, em Wellman, Barry e Berkowitz , Steven (eds), Social Structures: A Network Approach (Cambridge, 1988) Google Scholar Zelizer, Viviana, “The Creation of Domestic Currencies”, American Economic Review. Papers and Proceedings, 84 (1994), pp. 138 - 142 Google Scholar e O significado social do dinheiro (Nova York, 1994).

6 Bhargava, Rajeev, Individualism in Social Science. Forms and Limits of a Methodology (Oxford, 1992) CrossRefGoogle Scholar Birnbaum, Pierre e Leca, Jean (eds), Sur l'individualisme (Paris, 1987) Google Scholar Druckman, Daniel, “Nationalism, Patriotism, and Group Loyalty: A Social Psychological Perspective ”, Mershon International Studies Review, 38 (1994), pp. 43-68 CrossRefGoogle Scholar Fesh-bach, Seymour,“ Individual Aggression, National Attachment, and the Search for Peace: Psychological Perspectives ”, Aggressive Behavior, 13 (1987 ), pp. 315 - 325 3.0.CO2-4> CrossRefGoogle Scholar Hechter, Michael (ed.), The Microfoundations of Macrosociology (Philadelphia, 1983) Google Scholar Tilly, Charles, "Softcore Solipsism", LabourlLe Travail, 34 (1994) , pp. 259-268 CrossRefGoogle Scholar.

7 Anderson, Benedict, Imagined Communities. Reflexões sobre a origem e difusão do nacionalismo (Londres, 1991) Google Scholar Ashforth, Adam, The Politics of Official Discourse in Twentieth-Century South Africa (Oxford, 1990) Google Scholar BjØrn, Claus, Grant, Alexander e Stringer, Keith J. (eds), Nations, Nationalism and Patriotism in the European Past (Copenhagen, 1994) Google Scholar Boyarin, Jonathan (ed.), Remapping Memory. The Politics of TimeSpace (Minneapolis, 1994) Google Scholar Brubaker, Rogers, "East European, Soviet, and Post-Soviet Nationalisms: A Frame-work for Analysis", Research on Democracy and Society, 1 (1993), pp. 353 - 378 Google Scholar e “Rethinking Nationhood: Nation as Institutionalized Form, Practical Category, Contingent Event”, Contenção, 4 (1994), pp. 3-14 Comaroff, John, "Humanity, Ethnicity, Nationality: Conceptual and Comparative Perspectives on the URSS", Theory and Society, 20 (1991), pp. 661 - 688 CrossRefGoogle Scholar Cunningham, Hugh , “The Language of Patriotism”, History Workshop Journal, 12 (1981), pp. 8 - 33 CrossRefGoogle Scholar Guardino, Peter, “Identity and Nationalism in Mexico: Guerrero, 1780-1840”, Journal of Historical Sociology, 7 (1994 ), pp. 314 - 342 CrossRefGoogle Scholar Karpat, Kemal H., "Gli stati balcanici e il nazionalismo: l'immagine e la realtà", Quademi Storici, 84 (1993), pp. 679 - 718 Google Scholar Mees, Ludger, Entre nación y close.El nadonalismo vasco y su base social en perspectiva comparativa (Bilbao, 1991) Google Scholar Noiriel, Gérard, La tyrannie du National Le droit d'asile na Europa 1793–1993 (Paris, 1991) Google Scholar e “L'identification des citoyens. Naissance de l'état civil républicain ”, Senhores, 13 (1993), pp. 3-28 Orloff, Ann Shola, "Gênero e os Direitos Sociais da Cidadania: A Análise Comparativa das Relações de Gênero e Estados de Bem-Estar", American Sociological Review, 58 (1993), pp. 303 - 328 CrossRefGoogle Scholar Rosanvallon, Pierre, L'État en France de 1789 à nos jours (Paris, 1990) Google Scholar Rosen, Lawrence, “The Integrity of Cultures”, American Behavioral Scientist, 34 (1991), pp. 594 - 617 CrossRefGoogle Scholar Shell, Marc, Crianças da Terra. Literatura, Política e Nacionalidade (Nova York, 1993) Google Scholar Thórarinsdóttir, Frída, “National, State and Language. An Invented Unity ”, Working Paper 188, Center for Studies of Social Change, New School for Social Research (1994) Google Scholar Topalov, Christian,“ Patriotismes et citoyennetés ”, Genèses, 3 (1991), pp. 162 - 176 CrossRefGoogle Scholar Wahrman, Dror, "Representação Virtual: Reportagem Parlamentar e Línguas de Classe na década de 1790", Passado e Presente, 136 (1992), pp. 83 - 113 CrossRefGoogle Scholar Wendt, Alexander, "Formação de Identidade Coletiva e o Estado Internacional", American Political Science Review, 88 (1994), pp. 384-398 CrossRefGoogle Scholar. Sobre análises relacionais de maneira mais geral, consulte Bearman, Peter S., Relations into Rhetorics. Local Elite Social Structure in Norfolk, England, 1540–1640 (New Brunswick, 1993) Google Scholar Blanc, Maurice (ed.), Pour une sociologie de la transaction sociale (Paris, 1992) Google Scholar Emirbayer, Mustafa and Goodwin, Jeff, "Network Analysis, Culture, and the Problem of Agency", American Journal of Sociology, 99 (1994), pp. 1411-1454 CrossRefGoogle Scholar Kontopoulos, Kyriakos M., The Logics of Social Structure (Cambridge, 1993) CrossRefGoogle Scholar Somers, Margaret R., "The Narrative Constitution of Identity: A Relational and Network Approach", Theory and Society, 23 (1994), pp. 605 - 650 CrossRefGoogle Scholar White, Harrison, Identity and Control. A Structural Theory of Social Action (Princeton, 1992) Google Scholar e “Where Do Languages ​​Come From? - Switching Talk ”, Working Paper 202, Center for the Social Sciences, Columbia University, 22 de março de 1995.

8 Lipset, Seymour Martin, Homem Político. The Social Bases of Politics (Garden City, 1960), pp. 55, 84-85, 92-93Google Scholar.


Conteúdo

No rescaldo do tiroteio de 1986 do FBI em Miami, no qual dois agentes especiais do FBI foram mortos e cinco feridos, o FBI iniciou o processo de teste de Parabellum 9 × 19 mm e munição 0,45 ACP em preparação para substituir seu revólver padrão por um semi - pistola automática. A pistola semiautomática oferece duas vantagens sobre o revólver: maior capacidade de munição e maior facilidade de recarregar durante um tiroteio. O FBI ficou satisfeito com o desempenho de seu cartucho de ponta oca de chumbo semi-wadcutter (LSWCHP) .38 Special + P 158 gr (10,2 g) ("carga do FBI") com base em décadas de desempenho confiável. A munição para a nova pistola semiautomática precisava entregar desempenho terminal igual ou superior à carga .38 Especial do FBI. O FBI desenvolveu uma série de testes orientados para a prática envolvendo oito eventos de teste que eles acreditavam representavam razoavelmente os tipos de situações que os agentes do FBI comumente encontravam em incidentes de tiro. [ citação necessária ]

Durante os testes das munições 9 × 19mm e .45 ACP, o agente especial encarregado da Unidade de Treinamento de Armas de Fogo do FBI, John Hall, decidiu incluir testes do cartucho Auto 10mm, fornecendo seu próprio Colt Delta Elite 10mm semiautomático, e munição carregada pessoalmente à mão. Os testes do FBI revelaram que uma bala JHP 10 mm de 170-180 gr (11,0-11,7 g), impulsionada entre 900-1.000 pés / s (270-300 m / s), atingiu o desempenho terminal desejado sem o forte recuo associado à munição convencional de 10 mm (1.300-1.400 pés / s (400-430 m / s)). O FBI contatou a Smith & amp Wesson e solicitou que projetasse uma arma de acordo com as especificações do FBI, com base na arma existente Smith & amp Wesson Modelo 4506 .45 ACP, que funcionaria de forma confiável com a munição de 10 mm de velocidade reduzida do FBI. Durante esta colaboração com o FBI, a S & ampW percebeu que reduzir o tamanho da potência total de 10 mm para atender às especificações de velocidade média do FBI significava menos pólvora e mais espaço aéreo no caso. Eles descobriram que, ao remover o espaço aéreo, poderiam encurtar a caixa de 10 mm o suficiente para caber em seus revólveres de 9 mm de armação média e carregá-la com uma bala JHP de 180 gr (11,7 g) para produzir desempenho balístico idêntico ao cartucho de 10 mm de velocidade reduzida do FBI. A S & ampW então se juntou a Winchester para produzir um novo cartucho, o .40 S & ampW. Ele usa um pequeno primer de pistola enquanto o cartucho de 10 mm usa um grande primer de pistola.

O cartucho .40 S & ampW foi lançado em 17 de janeiro de 1990, junto com a nova pistola Smith & amp Wesson Modelo 4006, embora demorasse vários meses para que as pistolas estivessem disponíveis para compra. Fabricante austríaco Glock Ges.m.b.H. venceu a Smith & amp Wesson nas prateleiras dos concessionários em 1990, com pistolas com câmaras em .40 S & ampW (Glock 22 e Glock 23) que foram anunciadas uma semana antes de 4006. [5] em 10mm Auto, a Glock 20, pouco tempo antes. Uma vez que o .40 S & ampW usa o mesmo diâmetro de furo e cabeça do case do 10mm Auto, foi apenas uma questão de adaptar o design de 10mm aos quadros Parabellum 9 × 19mm mais curtos. As novas armas e munições foram um sucesso imediato, [6] [7] e pistolas do novo calibre foram adotadas por várias agências de aplicação da lei em todo o país, incluindo o FBI, que adotou a pistola Glock em .40 S & ampW em maio de 1997.

A popularidade do .40 S & ampW acelerou com a aprovação da agora expirada Proibição de Armas de Assalto Federal de 1994, que proibia a venda de cartuchos de pistola ou rifle que pudessem conter mais de dez cartuchos, independentemente do calibre. Vários estados dos EUA e vários governos locais também baniram ou regulamentaram as chamadas revistas de "alta capacidade". Como resultado, muitos novos compradores de armas de fogo, limitados a comprar pistolas com capacidade máxima de 10 cartuchos de cartuchos, escolheram pistolas com câmara S & ampW .40 em vez de cartuchos de diâmetro menor, como o 9x19mm (Luger 9mm ou Parabellum 9mm).

O comprimento da caixa de .40 S & ampW e o comprimento total do cartucho são encurtados, mas outras dimensões, exceto a estrutura da caixa e a espessura da parede, permanecem idênticas ao Auto de 10 mm. Ambos os cartuchos se encaixam na boca do estojo. Assim, em um semi-automático, eles não são intercambiáveis. Disparado de um semiautomático de 10 mm, o cartucho .40 Smith & amp Wesson fará um headspace no extrator e a bala irá pular um furo livre de 0,142 polegadas (3,6 mm) como um .38 Special disparado de um revólver Magnum .357. Se o cartucho não for segurado pelo extrator, as chances de um primer rompido são grandes. [8] Smith & amp Wesson fazem um revólver de dupla ação (o Modelo 610) que pode disparar qualquer cartucho através do uso de clipes lunares. Um revólver de ação única na câmara .38-40 também pode disparar tiros de .40 ou 10mm, desde que seja equipado com um cilindro de tamanho correto. Algumas pistolas de calibre .40 podem ser convertidas para 9 mm com um cano especial, troca de pente e outras peças.

O .40 S & ampW tem 1,25 ml (19,3 grãos H2O) capacidade da caixa do cartucho.

A taxa de torção de estrias comum para este cartucho é de 406 milímetros (16,0 pol.), 6 ranhuras, ∅ terras = 9,91 mm, ∅ ranhuras = 10,17 mm, largura da superfície = 3,05 mm e o tipo de primer é pequena pistola. [4] De acordo com o C.I.P. diretrizes, o caso .40 S & ampW pode suportar até 225 megapascais (32.600 psi) de pressão piezo. Em países regulamentados pelo C.I.P., cada combinação de pistola / cartucho deve ser à prova de 130% deste máximo C.I.P. pressão para certificar a venda aos consumidores.
O limite de pressão SAAMI para 0,40 S & ampW é definido em 241,32 megapascals (35.001 psi) de pressão piezo. [9]

O cartucho .40 S & ampW é popular entre as agências de cumprimento da lei nos Estados Unidos, Canadá, Austrália e Brasil. Embora possua precisão quase idêntica, [10] deriva e caia como o Parabellum de 9 mm, ele também tem uma vantagem energética [11] sobre o Parabellum de 9 mm [12] e 0,45 ACP, [13] e com um recuo mais gerenciável do que o de 10 mm Cartucho de automóvel. [6] Marshall & amp Sanow (e outros proponentes do choque hidrostático) afirmam que, com boas balas de ponta oca encamisadas, as cargas mais energéticas para o .40 S & ampW também podem criar choque hidrostático em alvos vivos de tamanho humano. [14] [15]

Com base no desempenho balístico terminal ideal na gelatina de munições durante os testes de laboratório no final dos anos 1980 e início dos anos 1990, o .40 S & ampW ganhou o status de "o cartucho ideal para defesa pessoal e aplicação da lei". [7] [16] Balisticamente, o .40 S & ampW é quase idêntico ao .38-40 Winchester introduzido em 1874, pois eles compartilham o mesmo diâmetro e peso da bala, e têm velocidades de boca semelhantes. [17] A energia do .40 S & ampW excede a pressão padrão .45 ACP carregamentos, gerando entre 350 pés-libras (470 J) e 500 pés-libras (680 J) de energia, dependendo do peso da bala. Tanto o .40 S & ampW quanto o Parabellum de 9 mm operam a um máximo SAAMI de 35.000 libras por polegada quadrada (240 MPa), em comparação com um máximo de 21.000 libras por polegada quadrada (140 MPa) para .45 ACP. [18]

.40 Pistolas S & ampW com pentes de pilha dupla padrão (não estendidos) podem conter até 16 cartuchos. Apesar de não deslocar o Parabellum de 9 mm, o .40 S & ampW é comumente usado em aplicações de aplicação da lei de acordo com sua origem com o FBI. Algumas unidades de operações especiais dos EUA têm disponíveis 0,40 S & ampW e 0,45 ACP para suas pistolas. A Guarda Costeira dos Estados Unidos, tendo funções duplas como aplicação da lei marítima e implantações militares, adotou o SIG Sauer P229R DAK em .40 S & ampW como sua arma padrão.

O .40 S & ampW foi originalmente carregado na velocidade subsônica (984,25 pés / s (300,00 m / s)) com uma bala de 180 grãos (11,7 g). [16] Desde a sua introdução, várias cargas foram criadas, com a maioria sendo 155, 165 ou 180 gr (10,0, 10,7 ou 11,7 g). [19] No entanto, existem algumas balas com pesos tão leves quanto 135 gr (8,7 g) e tão pesadas quanto 200 gr (13,0 g). [20] Cor-Bon e Winchester oferecem um JHP de 135 gr (8,7 g) e Cor-Bon também oferece uma ponta oca Barnes XPB de 140 gr (9,1 g). Double Tap Ammo, com sede em Cedar City, Utah, carrega um 135 gr (8,7 g) Nosler JHP, 155 gr (10,0 g), 165 gr (10,7 g) e 180 gr (11,7 g) Speer Gold Dot de ponta oca ( comercializado como "Bonded Defense"), um Hornady XTP JHP de 180 gr (11,7 g) e três cargas diferentes de 200 gr (13,0 g) incluíam um revestimento Full Metal (FMJ) de 200 gr (13 g), um revestimento de 200 gr (13 g) ) Hornady XTP JHP e Double Tap da própria bala de chumbo fundido de 200 gr (13 g) WFNGC (Wide Flat Nose Gas Check), esta última especificamente projetada para aplicações de caça e transporte de madeira.

O .40 S & ampW foi observado em uma série de falhas de cartuchos, particularmente em pistolas Glock mais antigas, devido à área relativamente grande da cabeça da caixa sem suporte nesses canos, dada sua alta pressão de trabalho. [21] [22] A rampa de alimentação nas pistolas Glock .40 S & ampW é maior do que em outras Glocks, o que deixa a parte inferior traseira da caixa sem suporte, e é nessa área sem suporte que as caixas falham. A maioria das falhas, mas não todas, ocorreu com munição recarregada ou remanufaturada. [23] Cartuchos carregados na pressão SAAMI ou acima dela, ou caixas ligeiramente grandes que disparam um pouco fora da bateria são frequentemente considerados a causa dessas falhas, [23] que são comumente referidas como "kaBooms" ou "kB!" como diminutivo. [23] Embora essas falhas do case não machuquem com frequência a pessoa que segura a pistola, a ventilação de gás de alta pressão tende a ejetar bem o carregador do carregador de maneira espetacular e geralmente destrói a pistola. Em alguns casos, o barril também irá falhar, explodindo o topo da câmara.


Isenção de responsabilidade

O registro ou uso deste site constitui a aceitação de nosso Acordo de Usuário, Política de Privacidade e Declaração de Cookies, e Seus Direitos de Privacidade na Califórnia (Acordo de Usuário atualizado em 01/01/21. Política de Privacidade e Declaração de Cookies atualizados em 01/05/2021).

© 2021 Advance Local Media LLC. Todos os direitos reservados (Sobre nós).
O material neste site não pode ser reproduzido, distribuído, transmitido, armazenado em cache ou usado de outra forma, exceto com a permissão prévia por escrito da Advance Local.

As regras da comunidade se aplicam a todo o conteúdo que você enviar ou enviar de outra forma para este site.


Destruição do ozônio estratosférico: uma revisão de conceitos e história

A destruição do ozônio estratosférico por meio da química catalítica envolvendo clorofluorocarbonos artificiais é uma área de foco no estudo da geofísica e uma das questões ambientais globais do século XX. Esta revisão apresenta uma breve história da ciência da destruição da camada de ozônio e descreve uma estrutura conceitual para explicar os principais processos envolvidos, com foco na química. As observações que podem ser consideradas como evidências (impressões digitais) da destruição da camada de ozônio devido aos clorofluorocarbonos são exploradas e a fase de gás relacionada e a química da superfície são descritas. Observações de ozônio e de gases traço relacionados ao cloro perto de 40 km fornecem evidências de que a química da fase gasosa realmente esgotou cerca de 10% do ozônio estratosférico lá, conforme previsto, e as estruturas verticais e horizontais dessa redução são impressões digitais para esse processo. Mudanças mais marcantes são observadas a cada primavera austral na Antártica, onde cerca de metade da coluna total de ozônio é exaurida a cada setembro, formando o buraco de ozônio da Antártica. As medições de grandes quantidades de ClO, um importante catalisador de destruição do ozônio, estão entre as impressões digitais que mostram que as liberações humanas de clorofluorocarbonos são a principal causa dessa mudança. A redução da camada de ozônio nas regiões Antártica e Ártica está ligada à química heterogênea do cloro que ocorre nas superfícies das nuvens estratosféricas polares em temperaturas frias. As observações também mostram que parte da mesma química heterogênea ocorre nas superfícies das partículas presentes em latitudes médias, e a abundância dessas partículas é aumentada após erupções vulcânicas explosivas. A partição do cloro entre as formas ativas que destroem o ozônio e os reservatórios inertes que o sequestram é uma parte central da estrutura para nossa compreensão do declínio do ozônio de 40 km, o buraco do ozônio na Antártida, as recentes perdas de ozônio no Ártico em anos particularmente frios, e a observação de redução recorde do ozônio em latitudes médias após a grande erupção do Monte Pinatubo no início da década de 1990. Como o uso humano de clorofluorcarbonos continua diminuindo, espera-se que essas mudanças ao longo da camada de ozônio sejam gradualmente revertidas durante o século XXI.


London Review of Books: An Incomplete History review - 40 anos de LRB

Não é incomum que periódicos produzam livros aplaudindo suas próprias realizações, especialmente em seus aniversários, mas este volume, organizado pela equipe editorial da London Review of Books para comemorar o 40º aniversário do que eles chamam de "o jornal", é singular. Embora seja uma espécie de antologia, é mais como um álbum de recortes bem produzido, com reproduções fotográficas de cartas originais, rascunhos de artigos e notas rabiscadas. (Grande diplomacia foi demonstrada em obter permissão para reproduzir alguns deles.) O resultado é uma espécie de livro de mesa de contenção intelectual.

O LRB começou em 1979, quando a disputa trabalhista no Times fez com que o Times Literary Supplement não aparecesse. Karl Miller, ex-editor do Listener e chefe de inglês da University College London, decidiu iniciar uma nova revisão. Sua ex-assistente no Listener, Mary-Kay Wilmers, juntou-se a ele. Este volume ilustra o início frágil, mas estranhamente confiante, do LRB, primeiro como uma inserção na New York Review of Books, que inicialmente forneceu o financiamento necessário. Ele se separou um ano depois. Wilmers havia herdado algum dinheiro - "Eu não queria ... Então, encontrei um uso para ele" - e quando Miller saiu em 1992, Wilmers tornou-se editor e ainda é.

A primeira edição ainda parece impressionante, com William Empson no Sonho de uma noite de verão, A crítica de John Bayley sobre William Golding Darkness Visiblee novos poemas de Ted Hughes e Seamus Heaney. As páginas reproduzidas de edições anteriores são, no entanto, proibitivas: colunas inteiras de impressão até onde os olhos podem ver. O LRB demonstrou sua seriedade intelectual, permitindo aos colaboradores uma linguagem incomparável. (Cannily, os compiladores optaram por reimprimir apenas fragmentos tentadores de itens interessantes, em vez de peças inteiras.)

Vemos a página do bloco de notas de Miller com sua lista de colaboradores desejados, a maioria dos quais acaba sendo capturada. Alguns grandes refuseniks são comemorados. Karl Popper, tanto altivo quanto carente, fez com que seu assistente na LSE dissesse ao LRB que ele não escrevia resenhas, mas estaria "interessado em saber se você publicou resenhas de seus próprios livros". Dos 66 nomes conhecidos na lista de celebridades intelectuais de Miller, apenas seis são mulheres. Posteriormente, há alguma preocupação com a predominância de contribuintes do sexo masculino na história recente e distante do LRB.

Pode parecer estranho ter um livro de mesa de centro onde as imagens são de textos, mas muitos deles são surpreendentemente expressivos. Há a extraordinária carta datilografada da poetisa Laura Riding reclamando da biografia de Martin Seymour-Smith de seu ex-parceiro, Robert Graves. "Sr. Miller!" começa, antes de expressar indignação em frases desconexas, onde a própria letra - letras digitadas em excesso, palavras riscadas - é um gráfico de seus sentimentos. É um lembrete da bagunça eloquente que uma máquina de escrever pode fazer. Em contraste, o texto datilografado densamente, mas precisamente corrigido do artigo do Diário de Julian Barnes sobre o prêmio Booker ("bingo elegante") é um diagrama de meticulosidade.

Temos o drama gráfico, por assim dizer, da carta manuscrita, no que parece ser uma ponta de feltro azul, de Bruce Chatwin em 1988, protestando contra um artigo sobre Aids de John Ryle - na verdade, protestando contra o próprio uso da palavra “ Aids". O script não unido de alguma forma torna a fúria reprimida ainda mais clara. Diferentemente eloquente é a nota ampliada de agradecimento a Frank Kermode, por sua revisão de A flor azul, de Penelope Fitzgerald, escrito com uma caligrafia excêntrica e altamente legível: "Não sei se você concorda que escrever, como ensinar, produz crises consideráveis ​​de depressão e momentos de grande felicidade."

De alguma forma, é ótimo ver a página real enviada por fax do conselho de um advogado extremamente ansioso sobre um artigo de Christopher Hitchens sobre Conrad Black. “O verdadeiro problema vem com as opiniões de Christopher Hitchens sobre o Sr. Black - que ele é um egoísta louco e tirânico, um excêntrico sinistro, um megalomaníaco.” Também há um problema com o político trabalhista Michael Meacher sendo designado “um prefeito com uma reputação de sadismo frígido”. Uma caneta editorial escreveu “cortar” ao lado de ambas as flores ofensivas da retórica.

Existem algumas discussões boas. Aqui está a ex-mulher de Al Alvarez, Ursula Creagh, revisando seu livro Vida após o casamento: cenas de um divórcio - e então, para completar, Kermode escrevendo a Miller para expressar sua indignação com essa escolha “virtualmente indesculpável” de revisor. “Eu não acredito em uma revisão 'sem preconceitos'”, Miller responde sem resposta, assinando com o triste reconhecimento de que “chegou a hora de não termos mais nada a ver uns com os outros”. O que o Dr. Johnson chamou de “a acrimônia dos esquoliatas” tem o seu devido prazer. Em 1993, é Elaine Showalter v Camille Paglia e Judith Butler denunciando portentosamente Terry Eagleton.

O LRB gosta de mostrar o LRB em processo. Por outro lado, as páginas exibem orgulhosamente memorandos nos quais a equipe debate hífens e as melhores maneiras de dividir as palavras no final das linhas. Por outro lado, ficamos com problemas com capas artísticas que acabaram sendo uma porcaria. Os editores da LRB são exigentes e muitas vezes eles próprios escritores talentosos (Andrew O’Hagan, Susannah Clapp, John Lanchester). Eles também têm uma reputação coletiva de excesso de confiança, ilustrada em algumas dessas páginas. O’Hagan explica como a equipe não gostou das últimas linhas de poemas que estavam imprimindo. “Eles costumavam ser muito‘ última linha ’.” Então, alguns foram apenas encaixados. Há um exemplo aqui (“Cockcrow”) de Patricia Beer, com sua carta de reclamação concisa e enfurecida. “O poema está, é claro, arruinado”, ela escreve, com justificativa.

Mostrar o processo também significa mostrar as escolhas políticas. Aqui está a carta de Wilmers para Anne Applebaum, explicando que o jornal recusou sua revisão de um livro nos últimos dias da União Soviética porque passou muito tempo lembrando aos leitores "que Stalin era mau". Há Hitchens, que já foi um filho favorito que mandava fax em copiosas cópias em todas as horas, sendo rejeitado para o encontro intelectual quando sua geopolítica mudou. O livro reproduz algumas das notórias coletâneas de respostas de colaboradores do LRB ao 11 de setembro, com a indignação de Marjorie Perloff que muitos pensam que, em uma frase que ela pegou do artigo de Mary Beard, "os Estados Unidos mereciam". Como Wilmers bem observa, "Beard não disse exatamente isso, embora ela não dissesse totalmente".

Os devotos irão apreciar o tributo bem merecido ao gerente de publicidade David Rose, que foi o pioneiro dos famosos anúncios pessoais do LRB (hoje em dia, apenas sombras de seu antigo eu, infelizmente). O livro reproduz os primeiros anúncios desse tipo, de outubro de 1998. Alguns deles trazem poesia, explosões de espanhol ou alusões aos escritos de Jacques Lacan - mas alguns deles têm uma franqueza incomparável no próprio jornal. “Homem calvo, baixo, gordo e feio, 53 procura mulher míope com tremendo apetite sexual.”

“Não é fofoca, aconchegante ou grosseira”, observa o colaborador de longa data Alan Bennett. Mas, de uma forma mais produtiva, é cliquey. Sempre teve favoritos e os alimentou. Com páginas captando o trabalho de escritores como Lorna Sage e Jenny Diski, este volume comemorativo parece uma justificativa desse hábito. Existe uma instância principal. Kermode evidentemente superou o fato de Miller dizer que era o fim e acabou contribuindo com mais de 200 peças (mais do que qualquer outra pessoa). Isso é equivalente a pelo menos 10 livros longos. Com sua capacidade incomparável de "pairar como um escritor entre a academia e o jornalismo", ele era o espírito tutelar do LRB. Um bom modelo para nos deixar.


HAZUS - seu desenvolvimento e seu futuro

O desenvolvimento do HAZUS começou no início dos anos 1990 e continua até hoje quando a segunda versão de manutenção do HAZUS-MH está quase concluída. Este documento discute a história do desenvolvimento de HAZUS e planos para o futuro. O HAZUS foi criado com um processo que incluiu a revisão de última geração dos métodos de estimativa de perdas sísmicas, seguida por metodologia e desenvolvimento de software e teste piloto. O modelo foi lançado pela primeira vez para terremotos em 1997 e consistia em um banco de dados de inventário, modelo de movimento do solo, modelos de danos em edifícios e linhas de vida, modelo de seguimento de fogo, modelos de perdas econômicas diretas e indiretas e modelo de vítimas. Aprimoramentos subsequentes incluíram um novo modelo de danos à ponte e um modelo de análise de construção individual / grupo. O desenvolvimento do HAZUS com capacidade total para terremotos, enchentes e furacões começou em 1997, com lançamento como HAZUS-MH no início de 2004. O modelo de inundação incluiu métodos para avaliar os danos de inundações ribeirinhas e costeiras a edifícios, transporte e linhas de vida utilitárias, áreas agrícolas e veículos , geração de detritos e requisitos de abrigo. Os efeitos do alerta de inundação foram levados em consideração, assim como os efeitos da velocidade do fluxo. Em 2002, antes do lançamento do modelo de inundação completo, uma ferramenta de informações de inundação foi lançada para permitir que os usuários comecem a coletar e classificar dados locais de risco de inundação, bem como outros dados pertinentes, para análises de Nível 2. O modelo de furacão adaptou um modelo existente revisado por pares e validado que descreve toda a pista e campo de vento de um furacão ou tempestade tropical como base para a caracterização do perigo. Métodos para avaliar danos a edifícios, detritos de edifícios e árvores e necessidades de abrigo também estão incluídos no Modelo de Furacão. Ao longo da história do HAZUS, dados de inventário e desenvolvimento de metodologia sempre foram espelhados por esforços de implementação de software, como InCAST, que facilita o desenvolvimento e organização de bancos de dados para a criação de portfólios de construção, e Building Data Import Tool (BIT), que permite fácil importação de dados dos assessores fiscais. O lançamento de HAZUS-MH foi seguido no início de 2005 pelo primeiro lançamento de manutenção, HAZUS-MH MR1. Atualmente, quatro lançamentos adicionais são antecipados. O HAZUS foi usado em 2001 para estimar as perdas anualizadas pelo terremoto nos Estados Unidos. Estudos anualizados para todos os três perigos estão sendo conduzidos atualmente com as versões mais recentes do HAZUS.


Neuroplasticidade adulta: mais de 40 anos de pesquisa

Nas últimas quatro décadas, nossa visão do cérebro de vertebrados maduros mudou significativamente. Hoje é geralmente aceito que o cérebro adulto está longe de ser consertado. Vários fatores, como estresse, hormônios adrenais e gonadais, neurotransmissores, fatores de crescimento, certos medicamentos, estimulação ambiental, aprendizagem e envelhecimento, alteram as estruturas e funções neuronais. Os processos que esses fatores podem induzir são alterações morfológicas em áreas do cérebro, mudanças na morfologia dos neurônios, alterações na rede, incluindo mudanças na conectividade neuronal, geração de novos neurônios (neurogênese) e alterações neurobioquímicas. Aqui, revisamos vários aspectos da neuroplasticidade e discutimos as implicações funcionais das capacidades neuroplásticas do cérebro adulto e diferenciado com referência à história de sua descoberta.

1. Introdução

O termo “plasticidade neuronal” já era usado pelo “pai da neurociência” Santiago Ramón y Cajal (1852-1934) que descreveu mudanças não patológicas na estrutura do cérebro adulto. O termo estimulou uma discussão controversa, já que alguns neuropatologistas favoreciam o “velho dogma” de que há um número fixo de neurônios no cérebro adulto que não pode ser substituído quando as células morrem (para revisão, ver [1]). Em um sentido mais amplo, a plasticidade do cérebro pode ser considerada como “a capacidade de fazer mudanças adaptativas relacionadas à estrutura e função do sistema nervoso” [2]. Consequentemente, a "plasticidade neuronal" pode representar não apenas alterações morfológicas em áreas do cérebro, alterações nas redes neuronais, incluindo alterações na conectividade neuronal, bem como a geração de novos neurônios (neurogênese), mas também alterações neurobioquímicas. Fornecemos aqui uma breve visão geral das diferentes formas de neuroplasticidade com referência à história de sua descoberta.

2. Mudanças na morfologia do neurônio

No final da década de 1960, o termo “neuroplasticidade” foi introduzido para designar mudanças morfológicas em neurônios de cérebros adultos. Usando microcopia eletrônica, Raisman [3] demonstrou uma “reorganização anatômica” do neurópilo nos núcleos septais de ratos adultos após uma lesão seletiva em axônios distintos que terminam nos neurônios nesses núcleos. Desde então, muitas mudanças na morfologia dos neurônios em resposta a vários estímulos internos e externos foram descritas. Um forte estímulo externo que evoca inúmeras alterações neuroplásticas é o estresse. O estresse repetido ou crônico altera a morfologia dos neurônios em várias áreas do cérebro. Provavelmente, a alteração neuromorfológica mais completamente investigada é a regressão induzida por estresse do comprimento geométrico dos dendritos apicais dos neurônios piramidais que foi demonstrada pela primeira vez no hipocampo [4]. O hipocampo faz parte do sistema límbico-HPA (hipotálamo-pituitária-adrenal) e regula a resposta ao estresse. A retração de dendritos de neurônios piramidais CA3 foi repetidamente documentada após estresse crônico, bem como após administração crônica de glicocorticóides [5-7]. A retração dendrítica certamente reduz a superfície dos neurônios, o que diminui o número de sinapses. Também os neurônios no córtex pré-frontal medial retraem seus dendritos em resposta ao estresse, mas os efeitos dependem do hemisfério [8, 9]. Estudos sobre o córtex pré-frontal mostraram que os neurônios nessa região do cérebro são particularmente plásticos, pois mudam sua morfologia dendrítica com o ritmo diurno [10]. Essas reações neuroplásticas não são uma via de mão única. Na amígdala, a arborização dendrítica dos neurônios piramidais e estrelados no complexo basolateral foi melhorada por um paradigma de estresse crônico semelhante que reduz a ramificação de dendritos em neurônios piramidais CA3 do hipocampo [11]. As pronunciadas capacidades neuroplásticas do cérebro também são refletidas pelo fato de que as sinapses são substituídas assim que o estresse termina [12]. Além disso, drogas que estimulam a neuroplasticidade podem prevenir a retração induzida por estresse de dendritos na formação do hipocampo [13]. Uma forma de neuroplasticidade funcional é a potenciação de longo prazo (LTP), que é o aumento de longa duração na transmissão do sinal entre dois neurônios após estimulação síncrona [14].

3. Morte do neurônio

A pesquisa sobre neuroplasticidade em cérebros adultos foi fortemente estimulada por observações de que neurônios cerebrais podem morrer, por exemplo, por causa de trauma ou doenças degenerativas como Parkinson ou doença de Alzheimer [15]. No final da década de 1990, houve relatos de que mesmo o estresse que um indivíduo experimenta pode matar neurônios no cérebro. Esta mensagem foi baseada em estudos em macacos vervet selvagens que foram alojados em um centro de primatas no Quênia, onde morreram repentinamente. Os animais experimentaram forte estresse por causa do isolamento social de seu grupo [16]. A descoberta de que seus cérebros revelavam neurônios piramidais mortos no hipocampo atraiu grande atenção do público, pois a mensagem foi reduzida a "o estresse mata neurônios". No entanto, mais tarde descobriu-se que, neste estudo em animais selvagens, o post mortem o tratamento do tecido cerebral não foi o ideal. O tempo entre a morte dos animais e a fixação dos cérebros para a análise neuropatológica foi obviamente muito longo, de modo que a morfologia dos neurônios foi afetada a um ponto que nada teve a ver com a exposição prévia ao estresse dos animais vivos. Uma vez que o estresse aumenta os glicocorticóides plasmáticos (GC), macacos foram cronicamente tratados com GC em um estudo subsequente, e também os cérebros desses animais revelaram mudanças na morfologia dos neurônios que foram interpretadas como neurônios mortos ou moribundos [17]. No entanto, esses achados não puderam ser confirmados por outros. Em vez disso, reconheceu-se que a análise morfológica dos neurônios piramidais é tecnicamente delicada. Tornou-se aparente que, após a morte de um sujeito, os neurônios podem mudar dramaticamente sua morfologia e se transformar em "neurônios escuros" quando o tecido cerebral não foi fixado adequadamente para a análise histológica [18]. Quando os experimentos de estresse crônico foram repetidos sob condições que reconheciam esses problemas técnicos, descobriu-se que o estresse não matar neurônios, o que é definitivamente uma boa mensagem para indivíduos estressados ​​[19]. Outros estudos mostraram que a apoptose (morte celular programada) na formação do hipocampo é um evento relativamente raro e que o estresse crônico pode até reduzir a morte celular em certos subcampos do hipocampo enquanto aumenta a apoptose em outros [20]. Uma vez que o estresse social crônico em animais é considerado um modelo pré-clínico para a depressão, a descoberta de uma ausência de morte de neurônios em animais estressados ​​também lançou uma nova luz sobre a hipótese de que, em humanos, a depressão maior mata neurônios no cérebro. Na verdade, foi descoberto mais tarde que os números de neurônios do hipocampo em indivíduos deprimidos não diferem significativamente dos números em indivíduos saudáveis ​​[21]. Além disso, a hipótese de que a exposição crônica ao GC leva à morte de neurônios teve que ser revisada. Um resumo de uma série de estudos sobre essas questões concluiu que é improvável que o GC endógeno possa causar danos estruturais à formação do hipocampo [22]. No entanto, é um fato estabelecido que “influências adversas” como estresse, depressão e tratamentos crônicos com GC podem causar redução da formação do hipocampo [23]. No entanto, os processos subjacentes obviamente não são a perda de neurônios, mas outras alterações no tecido, como reduções nos dendritos neuronais e outras alterações presuntivas no neurópilo que ainda não foram identificadas em detalhes ([6, 24] para revisão ver [25]) .

4. Neurogênese em vertebrados adultos

O fenômeno mais atraente da neuroplasticidade parece ser a neurogênese adulta, ou seja, a geração de novos neurônios em cérebros adultos. A neurogênese ocorre, naturalmente, no sistema nervoso central em desenvolvimento, mas tendo em vista o fato de que certas doenças, como a doença de Parkinson e a esclerose múltipla, ocorrem na idade adulta, a questão interessante é se os cérebros adultos também são capazes de substituir os neurônios perdidos.

Em contraste com a maioria das células do corpo, como as do intestino, da pele ou do sangue, que são constantemente renovadas, o cérebro - e em particular o cérebro dos mamíferos - sempre foi considerado um órgão não renovável. A maioria dos neurônios do sistema nervoso central adulto aparece como terminalmente diferenciado. Embora o cérebro adulto possa às vezes compensar funcionalmente os danos, gerando novas conexões entre os neurônios sobreviventes, ele não tem uma grande capacidade de se reparar porque a maioria das regiões do cérebro são desprovidas de células-tronco necessárias para a regeneração neuronal. Esta falta de neuroplasticidade foi descrita pela primeira vez por Santiago Ramón y Cajal, que afirmou que “Nos centros adultos as vias nervosas são algo fixo, terminado, imutável. Tudo pode morrer, nada pode ser regenerado. Cabe à ciência do futuro mudar, se possível, este duro decreto ”[26].

O dogma “sem novos neurônios” já foi questionado há quase cinco décadas. Usando a autorradiografia com o nucleosídeo de DNA tritiado 3 H-timidina, Altman [27, 28] ganhou as primeiras evidências para a produção de células da glia e possivelmente também de neurônios no cérebro de ratos adultos jovens e gatos adultos. Em estudos subsequentes, ratos de 10 dias de idade receberam 3 H-timidina e a radioatividade do trítio foi visualizada 2 meses depois nas células da zona subgranular no giro denteado [29]. Infelizmente, a autorradiografia com 3H-timidina é um método muito delicado e não é fácil captar o baixo número de neurônios que é gerado diariamente, por exemplo, no giro denteado de mamíferos adultos. Consequentemente, as autorradiografias de 3H-timidina produzidas naquela época geralmente não conseguiam convencer a comunidade científica de que a neurogênese adulta realmente existe. Assim, apenas um número limitado de experimentos seguiu os estudos iniciais mencionados acima. No entanto, o caráter neuronal das células recém-geradas no giro dentado do roedor foi confirmado e posteriormente substanciado pela demonstração de que essas células recém-nascidas recebem entrada sináptica e estendem axônios para a via de fibra musgosa que se projeta para o subcampo CA3 [30-32]. Outro marco foi no início dos anos 1980, quando uma neurogênese substancial foi demonstrada em um núcleo de controle vocal do cérebro canário adulto [33], e uma ligação funcional entre o comportamento, o aprendizado da música e a produção de novos neurônios foi estabelecida [34]. A descoberta de que, em pássaros canoros (canários, tentilhões-zebra), os machos têm núcleos de controle do canto maiores em seus cérebros, em comparação com as fêmeas, indicou que o número de neurônios nesses pássaros adultos pode mudar com a estação [35]. De fato, o número de neurônios nos núcleos de controle da música aumenta na primavera, quando os tentilhões-zebra machos começam a cantar, e neurônios recém-nascidos também foram encontrados no HVC (hyperstriatum ventrale, pars caudalis) de canários adultos [36]. Estudos sobre o HVC em aves mostraram que os hormônios esteróides desempenham papéis importantes nesses processos de neuroplasticidade, em particular o hormônio gonadal testosterona [35, 37].

Em linha com essas descobertas, a declaração de Cajal sobre o número fixo de neurônios em cérebros adultos foi desafiada ainda mais, pois ficou claro que mesmo em mamíferos, partes do sistema nervoso central adulto são capazes de substituir os neurônios. No epitélio olfatório do nariz dos mamíferos, os neurônios sensoriais são gerados continuamente ao longo da vida, como mostrado pela primeira vez em macacos-esquilo adultos [38]. Este estudo microscópico eletrônico mostrou claramente um grande número de neurônios sensoriais recém-nascidos que são produzidos todos os dias no epitélio olfatório dos animais adultos. Mais tarde, descobriu-se que também os neurônios do bulbo olfatório (OB) de mamíferos adultos podem ser substituídos. Os novos neurônios OB derivam da zona subventricular no ventrículo lateral onde os neuroblastos são gerados que migram através do fluxo migratório rostral para o OB (Figura 1). Os neuroblastos se diferenciam em neurônios funcionais, nesse caso células granulares, que formam sinapses com células mitrais ([39, 40] para revisão, consulte [41]). No entanto, a neurogênese OB é mais fácil de detectar do que a neurogênese hipocampal e levou vários anos até que houvesse evidências confiáveis ​​de que a neurogênese hipocampal existe em mamíferos adultos.


Uma visão esquemática da neurogênese adulta.As células progenitoras neuronais são geradas na zona subventricular (SVZ) e no giro denteado (DG) da formação do hipocampo (Quadril). (1) Na SVZ, são geradas células progenitoras neuroepiteliais que migram através do RMS (fluxo migratório rostral) para o bulbo olfatório (OB). Eles se diferenciam em neurônios maduros e são integrados como elementos funcionais no circuito olfatório neuronal. (2) No DG, os progenitores neurais quiescentes (a) tornam-se progenitores neurais amplificadores (b) que se diferenciam primeiro em neuroblastos (c), depois em neurônios imaturos (d) e, finalmente, em neurônios granulares funcionalmente maduros (e).

Em particular, a neurogênese não pôde ser demonstrada por muito tempo nos cérebros de primatas não humanos adultos, como macacos rhesus, levando assim à suposição de que a replicação neuronal não é tolerada em primatas. Em um estudo inicial, Rakic ​​[42] investigou a neurogênese em macacos rhesus adultos usando 3 H-timidina, examinando as principais estruturas e subdivisões do cérebro, incluindo o visual, motor e a associação neocórtex, hipocampo e OB. Rakic ​​encontrou “nenhuma célula fortemente marcada com as características morfológicas de um neurônio em qualquer cérebro de qualquer animal adulto” e concluiu que “todos os neurônios do cérebro do macaco rhesus são gerados durante a vida pré-natal e pós-natal precoce” [42, 43]. Além disso, Rakic ​​argumentou que "uma população estável de neurônios pode ser uma necessidade biológica em um organismo cuja sobrevivência depende do comportamento aprendido adquirido ao longo de um longo período de tempo." Essas afirmações tiveram uma profunda influência no desenvolvimento do campo de pesquisa, na medida em que formaram a base para os pesquisadores da época mostrarem pouco interesse em detectar a neurogênese no cérebro de mamíferos adultos.

Uma revolução no campo da pesquisa da neurogênese ocorreu quando o análogo da timidina 5-bromo-2′-desoxiuridina (BrdU) e os anticorpos correspondentes foram introduzidos para marcar neurônios recém-nascidos por imuno-histoquímica [44]. Usando esta nova - e em comparação com a autorradiografia - técnica simples e rápida, ficou claro que a neurogênese hipocampal adulta em mamíferos não se restringe a roedores, mas foi conservada ao longo da evolução dos mamíferos. A formação de novos neurônios granulares foi, por exemplo, demonstrada no giro dentado de ratos adultos e musaranhos [45, 46] a espécie posterior é considerada filogeneticamente localizada entre insetívoros e primatas [47]. Evidências de neurogênese no cérebro de primatas adultos derivadas de estudos em macacos sagüis [48], um pequeno primata não humano da América do Sul, e em macacos que são representantes típicos dos primatas não humanos do Velho Mundo [49, 50]. Finalmente, a existência de neurogênese no cérebro humano adulto foi demonstrada em pacientes com câncer que foram injetados com BrdU para monitorar a proliferação de células tumorais. Alguns desses pacientes morreram de sua doença e pequenas amostras de seus hipocampos foram avaliadas quanto à presença de neurônios marcados com BrdU. Como o BrdU foi administrado sistemicamente, todas as células em divisão deveriam ser marcadas. De fato, neurônios recém-nascidos foram detectados na camada de células granulares do giro dentado de todos os indivíduos [51]. Esses dados mostraram inequivocamente que a neurogênese adulta é um fenômeno comum entre as espécies de mamíferos. Assim, tornou-se geralmente aceito que a neurogênese adulta não ocorre apenas no bulbo olfatório e no gyrus dentatus da formação hipocampal de mamíferos, mas também podem ser detectados em regiões "superiores" do cérebro, como o neocórtex [52, 53]. No entanto, ainda há questões em aberto sobre a extensão da neurogênese em regiões cerebrais homólogas de diferentes espécies de mamíferos (ver abaixo).

Para detectar a neurogênese em cérebros de humanos adultos, o grupo de J. Frisén aproveitou o aumento da concentração de 14 C na atmosfera após os testes da bomba nuclear [54]. Após uma explosão nuclear, esse radioisótopo é cada vez mais incorporado às células em divisão de organismos vivos, incluindo humanos. Por meio da determinação do 14 C, os autores descobriram que cerca de 700 novos neurônios são gerados diariamente na formação hipocampal de humanos adultos. Curiosamente, a análise de 14 C de cérebros humanos revelou neurogênese adulta no estriado, adjacente a um local no ventrículo lateral onde as células precursoras neuronais são geradas, e há indicações de que os neuroblastos no estriado humano se diferenciam de interneurônios [55]. Surpreendentemente, nenhum neurônio recém-nascido pôde ser detectado com a técnica do 14 C no OB humano adulto. Essas descobertas mais recentes mostram claramente que os processos de neurogênese específicos da espécie e da região do cérebro aguardam elucidação adicional.

A neurogênese adulta ocorre não apenas em mamíferos e pássaros, mas também em anfíbios, répteis e peixes ósseos (para referências, ver [56]). Apesar dessa onipresença da neurogênese adulta nos vertebrados, estudos comparativos revelaram diferenças significativas entre as classes. Até agora, parece que na maioria dos mamíferos, a geração de novos neurônios em cérebros adultos ocorre em duas regiões, a zona subventricular e o giro denteado, e o número de neurônios recém-gerados é pequeno em comparação com o número total de células cerebrais (Figura 1). No entanto, também há relatos de estudos em ratos de que novos neurônios podem ser gerados na substância negra adulta, embora com "uma lenta renovação fisiológica dos neurônios" [57]. Em contraste, em peixes, um grande número de neurônios é continuamente produzido em muitas áreas do cérebro adulto [56]. Também é importante mencionar que em comparação com peixes, répteis e aves, a taxa de neurogênese em mamíferos adultos diminui com a idade [58].

5. Reguladores da neurogênese adulta

A existência de neurogênese em cérebros adultos dá esperança de que até mesmo regiões cerebrais danificadas podem ser reparadas funcionalmente. Na verdade, a lesão do cérebro adulto, como insultos isquêmicos, estimula a proliferação de células da zona subventricular e, portanto, a formação de células precursoras neuronais. Esses neuroblastos migram ao longo dos vasos sanguíneos para a região danificada (para revisão, ver [41]). No entanto, apenas uma pequena porcentagem pode sobreviver, em parte porque os processos inflamatórios que ocorrem na região isquêmica do cérebro inibem a neurogênese e a integração bem-sucedida de novas células em uma rede neuronal funcional [59]. Os anti-inflamatórios podem restaurar a neurogênese, como mostrado em modelos de roedores de inflamação periférica e após irradiação [60].

O conhecimento sobre a regulação da neurogênese adulta é definitivamente um pré-requisito para futuras intervenções terapêuticas que podem tirar proveito da geração de novos neurônios em cérebros adultos. Kempermann [61] enfatizou que há um "espectro imenso de reguladores neurogênicos" que refletem "a sensibilidade da neurogênese adulta a muitos tipos diferentes de estímulos." Os respectivos elementos reguladores que são até agora conhecidos incluem moléculas individuais, bem como condições ambientais que levam a mudanças em um grande número de fatores que influenciam a neurogênese. Entre os fatores moleculares que foram identificados pela primeira vez como reguladores da neurogênese adulta estão os esteróides sexuais, como o estrogênio, que podem pelo menos estimular transitoriamente a neurogênese no giro denteado [62]. Os hormônios esteróides têm efeitos pleiotrópicos na expressão de muitos genes, entre os quais também genes que codificam reguladores da neurogênese. Assim, em mamíferos fêmeas, os efeitos dos hormônios esteróides na neurogênese adulta dependem do ciclo estral e de outros estágios relacionados à biologia reprodutiva [63]. Não é surpreendente que fatores de crescimento como BDNF (fator neurotrófico derivado do cérebro) e VEGF (fator de crescimento endotelial vascular periférico) regulem a neurogênese adulta [64-66]. Além disso, o neurotransmissor glutamato e astroglia têm impacto na neurogênese adulta, provavelmente por gerar um microambiente distinto que pode favorecer a geração / diferenciação de neuroblastos [67-69]. O grande número de fatores que regulam a neurogênese adulta foi revisado antes [70].

Os efeitos do estresse na neurogênese no giro denteado (a chamada neurogênese hipocampal) foram estudados por vários grupos. O estresse social crônico em musaranhos e outras experiências adversas de estresse em macacos sagüis reduziram a neurogênese hipocampal [23, 46, 48]. Os efeitos do estresse social e outras formas de estresse dependem da intensidade do estressor e de sua duração, e podem ser reversíveis [71]. O estresse pré-natal em macacos rhesus tem efeitos persistentes, visto que uma redução na neurogênese foi observada em indivíduos adolescentes [72]. Em macacos sagüis recém-nascidos que foram expostos intrauterinamente ao glicocorticóide sintético dexametasona, a proliferação de células precursoras putativas, mas não a diferenciação em células maduras, foi prejudicada [73]. Curiosamente, esta diminuição da taxa de proliferação observada em macacos recém-nascidos não era mais detectável em seus irmãos de 2 anos, sugerindo nenhum efeito de longa duração da hiperexposição pré-natal à dexametasona na proliferação neuronal e diferenciação no giro dentado de macacos sagüis [74].

Vários autores atribuíram os efeitos do estresse na neurogênese às ações dos glicocorticóides, que são elevados no sangue de indivíduos estressados. Os corticosteroides de fato regulam a neurogênese e o antagonista do receptor de glicocorticóide mifepristona evitou a redução induzida pelo estresse na neurogênese do hipocampo [75]. Além disso, o receptor mineralocorticóide parece desempenhar um papel particular, conforme indicado pelo fato de que uma interrupção genética do receptor prejudicou a neurogênese hipocampal em adultos em camundongos [76]. No entanto, os elementos do sistema glicocorticóide não são os únicos fatores reguladores da neurogênese adulta no estresse. Em vez disso, como apontado acima, outros componentes da cascata de estresse, como a neurotransmissão excitatória aumentada (aumento da liberação de glutamato) também desempenham um papel. Em vários modelos pré-clínicos de depressão usando estresse para induzir sintomas semelhantes aos depressivos em animais, certos antidepressivos restauraram a neurogênese que havia sido prejudicada pelo estresse (ver, por exemplo, [23, 77]). Há indicações de que os antidepressivos ativam o receptor de glicocorticóide, que pode aumentar a neurogênese hipocampal [78]. No entanto, permanece um enigma se existem substâncias endógenas ou sintéticas que podem aumentar a neurogênese adulta por meio desse sistema receptor.

A formação de novos neurônios é regulada por substâncias derivadas dos vasos sanguíneos e é direcionada por um grande número de fatores [61, 79]. Coincidindo com essa visão, estão os relatórios que demonstram que a neurogênese adulta é aumentada pela atividade física como corrida [80], pelo aprendizado [81] ou pelo enriquecimento ambiental [82-84].

6. Papel funcional da neurogênese adulta

Logo após a descoberta da neurogênese adulta, foi hipotetizado que a neurogênese do hipocampo (ou seja, a neurogênese na zona subgranular do giro dentado, uma região da formação do hipocampo) desempenha um papel crucial na aprendizagem e na memória [81]. No entanto, os resultados experimentais sobre o papel de diferentes formas de memória em roedores adultos (por exemplo, aprendizagem espacial versus memória associativa) foram em parte contraditórios. Em uma revisão abrangente, Koehl e Abrous [85] chegaram à conclusão de que a neurogênese adulta em roedores está envolvida “quando a tarefa requer o estabelecimento de relações entre várias pistas ambientais ... para o uso flexível das informações adquiridas”. Se isso é verdade para todos os mamíferos ainda precisa ser determinado, pois uma taxa baixa ou mesmo ausência de neurogênese foi encontrada na formação hipocampal de morcegos adultos [86] e em baleias [87], espécies com excelente memória operacional espacial. No OB, novos neurônios nascidos em adultos são integrados aos circuitos neuronais que são responsáveis ​​pelo olfato e memória olfatória, respectivamente (para revisão ver [88]).

O fato de que em modelos animais de depressão certos antidepressivos restauraram a neurogênese normal que havia sido prejudicada pelo estresse levou à hipótese de que os efeitos benéficos dos antidepressivos dependem da restauração da neurogênese normal [77]. O volume da formação do hipocampo é reduzido em pacientes com depressão maior, e os antidepressivos podem normalizar o volume do hipocampo [89]. No entanto, o encolhimento do hipocampo provavelmente não é devido a uma diminuição na neurogênese, mas sim a mudanças mais complexas na rede neural que envolvem alterações dendríticas, axonais e possivelmente também gliais [24]. Kempermann et al. [90] propôs que “a falha na neurogênese hipocampal adulta pode não explicar a depressão maior, vício ou esquizofrenia, mas contribui para os aspectos hipocampais das doenças”. Uma comparação da proliferação de células-tronco neurais em post mortem amostras de cérebro de pacientes com depressão maior, transtorno afetivo bipolar, esquizofrenia e indivíduos controle não revelaram evidências de neurogênese reduzida no giro denteado de indivíduos deprimidos. Além disso, o tratamento com antidepressivos não aumentou a proliferação de células-tronco neurais. Inesperadamente, números significativamente reduzidos de células recém-formadas foram encontrados apenas em pacientes esquizofrênicos [91]. Com relação à neurogênese prejudicada como causa presuntiva de depressão, um grupo de especialistas resumiu que “uma redução duradoura na neurogênese” ... (é) “improvável que produza o transtorno de humor completo” [92]. No entanto, relatórios mais recentes baseados em post mortem estudos mostraram diminuição do número de células progenitoras neuronais no giro denteado de pacientes deprimidos e um efeito de aumento seletivo do tratamento antidepressivo no giro denteado anterior e médio de indivíduos deprimidos [93-95]. Para superar as múltiplas limitações de post mortem estudos, uma abordagem futura para abordar a questão da neurogênese adulta em humanos de forma mais precisa (possivelmente em estudos longitudinais) poderia ser a visualização desse processo em sujeitos vivos usando técnicas avançadas na Vivo técnicas de imagem. Além disso, essa abordagem pode ajudar a responder às questões em aberto sobre o papel da neurogênese nas funções cognitivas e seu impacto funcional e contribuição para a etiologia da depressão.

7. Mudanças na cromatina

Ao procurar por neurônios mortos na formação hipocampal de musaranhos machos, a histologia padrão mostrou que o estresse social crônico não leva à morte neuronal, mas muda a aparência dos núcleos nos neurônios do hipocampo [96]. Investigações mais aprofundadas revelaram que o estresse crônico aumenta a formação de heterocromatina nos núcleos dos neurônios do hipocampo [97]. Neste estudo, a ultraestrutura nuclear dos neurônios piramidais do hipocampo em musaranhos machos que foram expostos ao estresse social diário durante quatro semanas de acordo com um paradigma de estresse padrão foi analisada. A análise por microscopia eletrônica revelou que, nos animais estressados, o nucleoplasma dos neurônios piramidais CA3 exibia numerosos agrupamentos de heterocromatina (Figura 2). A heterocromatina é uma forma de cromatina condensada cuja ocorrência indica que a transcrição de genes é reduzida nessas células. Quantificação dos clusters revelando áreas maiores que 1 µm² na região CA3 do hipocampo mostrou que havia mais heterocromatina em animais estressados ​​em comparação com os controles. Em contraste, na área CA1, o estresse não teve efeito sobre a densidade dos aglomerados de heterocromatina (Figura 3 [97]). Embora naquela época não se conhecesse totalmente quais genes dos núcleos do hipocampo eram “silenciados” pelo estresse crônico, esses dados morfológicos já indicavam o que mais tarde foi chamado de “epigenética”, o fenômeno de que fatores ambientais mudam a estrutura da cromatina, influenciam a transcrição, e induzir mudanças no genoma [98]. Como os hormônios glicocorticóides são frequentemente considerados fatores importantes que transmitem muitos efeitos do estresse crônico, foi testado se um tratamento crônico com cortisol teria os mesmos efeitos sobre a cromatina que o estresse social crônico. Curiosamente, o cortisol crônico mudou o número de aglomerados de heterocromatina apenas na região CA1 do hipocampo, mas não em CA3, a região que é alvo do estresse (Figura 3). Esses resultados indicam uma reação específica do local e do tratamento ao estresse e ao tratamento com glicocorticóides na formação do hipocampo. As diferenças óbvias entre o estresse crônico e o tratamento crônico com glicocorticóides devem ser mantidas em mente, porque elas possivelmente refletem diferentes vias celulares ativadas pelos dois tratamentos.


(uma)
(b)
(c)
(d)

Resenha de livro: & # 8216Sapiens: A Graphic History & # 8217

Escrito pela primeira vez em hebraico e autopublicado em Israel em 2011, o livro de Yuval Noah Harari encontrou uma editora americana em 2014, rapidamente se tornou um best-seller internacional em 60 idiomas e depois se transformou em uma espécie de império multimídia chamado Sapienship . Seu autor visionário, um professor de história na Universidade Hebraica de Jerusalém, é agora um intelectual público muito procurado, e sua carreira é administrada por seu marido, Itzik Yahav. Quando Fareed Zakaria perguntou a Barack Obama o que ele estava lendo durante uma entrevista na CNN, o presidente elogiou os “Sapiens”.

Harari é um escritor talentoso e não tem medo de trafegar na maior das Grandes Idéias. Ele começa nos lembrando que Homo sapiens, a última espécie sobrevivente do gênero conhecido como Homo, começaram como animais comuns "sem mais impacto sobre o meio ambiente do que babuínos, vaga-lumes ou águas-vivas". Nosso dom único entre a outra fauna, que surgiu cerca de 70.000 anos atrás, é nossa habilidade de imaginar coisas que não podem ser detectadas pelos cinco sentidos, incluindo Deus, religião, corporações e moeda, todos os quais ele caracteriza como ficções. Ele ressalta que chegamos ao topo da cadeia alimentar apenas explorando e frequentemente exterminando outros animais, mas prevê que os humanos também não durarão muito no mundo. Todas essas idéias intrigantes - e muito mais & # 8212 são exploradas em profundidade, com sagacidade e acuidade em "Sapiens: Uma Breve História da Humanidade".

A mais recente manifestação da editora “Sapiens” é “Sapiens: A Graphic History” (Harper Perennial), uma série que fala muito (senão tudo) da mesma saga arrebatadora em formato de banda desenhada. O primeiro volume da série, co-escrito por David Vandermeulen e inventivamente ilustrado por Daniel Casanave, é “O Nascimento da Humanidade”.

As primeiras linhas da versão da história em quadrinhos de “Sapiens” ecoam o livro original, que começa com uma versão alternativa do Gênesis: “Cerca de 14 bilhões de anos atrás, matéria, energia, tempo e espaço surgiram no que é conhecido como o Grande Bang. ” O personagem de desenho animado que fala essas linhas é uma caricatura do próprio Harari, confortavelmente sentado em uma poltrona enquanto flutua no espaço no momento da criação.E ele continua a desempenhar o papel de professor gentil durante todo o resto do livro, perscrutando ou entrando no quadro dos quadrinhos e compartilhando a história com sua jovem sobrinha, Zoe, uma cativante cientista indiana chamada Arya Saraswati, e o professor Saraswati cão de estimação travesso.

Está fora de discussão hoje em dia que os quadrinhos podem ser apreciados por leitores adultos, e alguns deles são literalmente tão gráficos que seus leitores pretendidos são apenas adultos. “Sapiens: A Graphic History”, no entanto, é adequado para crianças. Por exemplo, ao explicar o princípio de que animais de espécies diferentes podem acasalar, mas não podem produzir descendentes férteis, Harari nos mostra um cavalo e um burro e comenta que "eles não parecem se relacionar muito." Embora muitas das ilustrações e bolhas de diálogo sejam bastante francas, o livro serve como uma introdução útil de história e ciência para leitores de todas as idades.

As ilustrações também animam a narração de histórias. Casanave espirituosamente alude a obras de arte icônicas que vão de "American Gothic" e "Guernica" aos Flintstones e "Planet of the Apes". Para ilustrar como a descoberta do fogo resultou em uma dieta que tornou os seres humanos mais saudáveis, ele retrata um casal idealizado de homens em pé junto a uma panela: “Belo cérebro! Sorriso perfeito! Six pack abs! Barriga lisa! ” As imagens são sempre alegres e muitas vezes engraçadas, o que às vezes vai contra as bolhas de diálogo, onde a brutalidade e a sede de sangue de Homo sapiens ao longo da história são descritos com franqueza.

Na verdade, a versão da história em quadrinhos de “Sapiens” não carece de nada da ousadia do original. “Tolerância não é uma marca registrada do sapiens”, somos lembrados. “Nos tempos modernos, apenas uma pequena diferença na cor da pele, dialeto ou religião pode levar um grupo de sapiens a exterminar outro. Por que os antigos sapiens deveriam ser mais tolerantes? Pode muito bem ser que quando sapiens encontrou Neandertais, a história viu sua primeira e mais significativa campanha de limpeza étnica. ”

A ideia mais subversiva em "Sapiens" é a noção de que Homo sapiens alcançamos um grande salto na evolução devido à nossa capacidade única de usar a linguagem para "inventar coisas". Entre os exemplos que Harari usa está a religião: "Você nunca conseguiria convencer um chimpanzé a lhe dar uma banana prometendo-lhe bananas ilimitadas no paraíso dos macacos" é minha única frase favorita de "Sapiens", e está na versão gráfica também, com a ilustração de um chimpanzé descendo o Monte Sinai com um par de comprimidos nos braços. A história é contada, apropriadamente, por um super-herói imaginário chamado Doctor Fiction.

A ideia mais subversiva em "Sapiens" é a noção de que Homo sapiens alcançamos um grande salto em evolução devido à nossa capacidade única de usar a linguagem para "inventar coisas".

“Toda cooperação humana em grande escala depende de mitos comuns que existem apenas na imaginação coletiva das pessoas”, resume a Doctor Fiction. “Grande parte da história gira em torno de uma grande questão ... como você convence milhões de pessoas a acreditar em uma história específica sobre um deus, uma nação ou uma sociedade de responsabilidade limitada?” A história prova que os seres humanos estiveram perfeitamente dispostos a abraçar as histórias que outro ser humano inventou, e "agora a própria sobrevivência de rios, árvores e leões depende da boa graça de entidades imaginárias, deuses todo-poderosos ou do Google", como o de Harari o avatar de quadrinhos coloca isso.

A história em quadrinhos termina com uma nota sombria. Um policial durão chamado Lopez convoca Harari e o professor Saraswati para ajudar na investigação do que ela chama de "os piores assassinos em série ecológicos do mundo". Diz o policial: “Onde quer que esses caras vão, um monte de corpos sempre aparece.” A esta altura, é claro, sabemos que o principal suspeito é, como diz um personagem, "todos nós".

Algumas das minhas coisas favoritas em “Sapiens” são necessariamente deixadas de fora da primeira história em quadrinhos, mas o autor promete contar toda a história em títulos futuros da série. Nesse ínterim, é claro, sempre há o livro original para ler, e já voltei à minha cópia inúmeras vezes.

Jonathan Kirsch, autor e advogado de publicação, é o editor do livro do Jewish Journal.


Revisão: Volume 40 - História

No novo milênio, a estratégia centenária da quarentena está se tornando um poderoso componente da resposta da saúde pública às doenças infecciosas emergentes e reemergentes. Durante a pandemia de síndrome respiratória aguda grave de 2003, o uso de quarentena, controles de fronteira, rastreamento de contato e vigilância provou ser eficaz na contenção da ameaça global em pouco mais de 3 meses. Durante séculos, essas práticas foram a pedra angular de respostas organizadas a surtos de doenças infecciosas. No entanto, o uso de quarentena e outras medidas para controlar doenças epidêmicas sempre foi controverso porque tais estratégias levantam questões políticas, éticas e socioeconômicas e requerem um equilíbrio cuidadoso entre o interesse público e os direitos individuais. Em um mundo globalizado que está se tornando cada vez mais vulnerável às doenças transmissíveis, uma perspectiva histórica pode ajudar a esclarecer o uso e as implicações de uma estratégia de saúde pública ainda válida.

O risco de doenças infecciosas mortais com potencial pandêmico (por exemplo, síndrome respiratória aguda grave [SARS]) está aumentando em todo o mundo, assim como o risco de ressurgimento de doenças infecciosas de longa data (por exemplo, tuberculose) e de atos de terrorismo biológico. Para diminuir o risco dessas novas e ressurgentes ameaças à saúde pública, as autoridades estão novamente usando a quarentena como uma estratégia para limitar a propagação de doenças transmissíveis (1) A história da quarentena - não em seu sentido mais restrito, mas no sentido mais amplo de restringir o movimento de pessoas ou mercadorias na terra ou no mar por causa de uma doença contagiosa - não recebeu muita atenção dos historiadores da saúde pública. No entanto, uma perspectiva histórica da quarentena pode contribuir para uma melhor compreensão de suas aplicações e pode ajudar a rastrear as longas raízes do estigma e preconceito desde a época da Peste Negra e primeiros surtos de cólera até a pandemia de influenza de 1918 (2) e para a primeira pandemia de influenza do século XXI, o surto de influenza A (H1N1) pdm09 de 2009 (3).

A quarentena (do italiano “quaranta”, que significa 40) foi adotada como um meio obrigatório de separar pessoas, animais e bens que possam ter sido expostos a uma doença contagiosa. Desde o século XIV, a quarentena tem sido a pedra angular de uma estratégia coordenada de controle de doenças, incluindo isolamento, cordões sanitários, atestados de saúde emitidos a navios, fumigação, desinfecção e regulamentação de grupos de pessoas que se acreditava serem responsáveis ​​pela disseminação do infecção (4,5).

Praga

As respostas institucionais organizadas para o controle da doença começaram durante a epidemia de peste de 1347-1352 (6) A praga foi inicialmente espalhada por marinheiros, ratos e cargas que chegavam à Sicília do Mediterrâneo oriental (6,7) rapidamente se espalhou por toda a Itália, dizimando as populações de poderosas cidades-estado como Florença, Veneza e Gênova (8) A pestilência então se mudou de portos na Itália para portos na França e Espanha (9) Do nordeste da Itália, a praga cruzou os Alpes e afetou populações da Áustria e da Europa central. No final do século XIV, a epidemia havia diminuído, mas não desapareceu, surtos de peste pneumônica e septicêmica ocorreram em diferentes cidades durante os próximos 350 anos (8).

A medicina era impotente contra a peste (8) a única maneira de escapar da infecção era evitar o contato com pessoas infectadas e objetos contaminados. Assim, algumas cidades-estado impediram que estranhos entrassem em suas cidades, principalmente, comerciantes (10) e grupos minoritários, como judeus e pessoas com hanseníase. Um cordão sanitário - que não deveria ser rompido sob pena de morte - foi imposto por guardas armados ao longo das rotas de trânsito e nos pontos de acesso às cidades. A implementação dessas medidas exigiu uma ação rápida e firme das autoridades, incluindo a pronta mobilização de forças policiais repressivas. Uma separação rígida entre pessoas saudáveis ​​e infectadas foi inicialmente realizada por meio do uso de campos improvisados ​​(10).

A quarentena foi introduzida pela primeira vez em 1377 em Dubrovnik, na costa da Dalmácia da Croácia (11), e o primeiro hospital permanente contra peste (lazareto) foi inaugurado pela República de Veneza em 1423 na pequena ilha de Santa Maria di Nazareth. O lazareto era comumente referido como Nazarethum ou Lazarethum por causa da semelhança da palavra lazareto com o nome bíblico Lazarus (12) Em 1467, Gênova adotou o sistema veneziano e, em 1476, em Marselha, França, um hospital para leprosos foi convertido em lazareto. Os Lazaretos estavam localizados longe o suficiente de centros habitacionais para restringir a propagação de doenças, mas perto o suficiente para transportar os enfermos. Sempre que possível, os lazaretos foram localizados de forma que uma barreira natural, como o mar ou um rio, os separasse da cidade quando não havia barreiras naturais, a separação foi conseguida circundando o lazareto com um fosso ou vala. Nos portos, os lazaretos consistiam em prédios usados ​​para isolar os passageiros e tripulantes de navios que tinham ou eram suspeitos de ter peste. A mercadoria dos navios foi descarregada em edifícios designados. Os procedimentos para a chamada “purga” dos vários produtos foram prescritos minuciosamente. Lã, fios, tecidos, couro, perucas e cobertores foram considerados os produtos com maior probabilidade de transmitir doenças. O tratamento dos produtos consistiu em cera de ventilação contínua e esponja imersa em água corrente por 48 horas.

Não se sabe por que 40 dias foi escolhido como o tempo de isolamento necessário para evitar a contaminação, mas pode ter derivado das teorias de Hipócrates sobre doenças agudas. Outra teoria é que o número de dias estava conectado à teoria dos números de Pitágoras. O número 4 teve um significado particular. Quarenta dias foi o período do trabalho bíblico de Jesus no deserto. Acredita-se que quarenta dias representem o tempo necessário para dissipar o miasma pestilento de corpos e bens por meio do sistema de isolamento, fumigação e desinfecção. Nos séculos que se seguiram, o sistema de isolamento foi melhorado (1315).

Em conexão com o comércio levantino, o próximo passo dado para reduzir a propagação de doenças foi estabelecer contas de saúde que detalhavam a situação sanitária do porto de origem de um navio (14) Após a notificação de um novo surto de peste ao longo do Mar Mediterrâneo oriental, as cidades portuárias a oeste foram fechadas aos navios que chegavam de áreas infectadas com a peste (15) A primeira cidade a aperfeiçoar um sistema de cordões marítimos foi Veneza, que devido à sua configuração geográfica particular e ao seu destaque como centro comercial, ficou perigosamente exposta (12,15,16) A chegada de barcos suspeitos de transportar a peste foi sinalizada com uma bandeira que seria vista pelos vigias da torre da igreja de São Marcos. O capitão foi levado em um bote salva-vidas ao gabinete do magistrado de saúde e mantido em um recinto onde falava através de uma janela, portanto, a conversa ocorreu a uma distância segura. Esta precaução foi baseada em uma hipótese equivocada (ou seja, que o "ar pestilento" transmitia todas as doenças transmissíveis), mas a precaução evitou a transmissão direta de pessoa para pessoa através da inalação de gotículas aerossolizadas contaminadas. O capitão deveria apresentar comprovante de saúde dos marinheiros e passageiros e fornecer informações sobre a procedência das mercadorias a bordo. Caso houvesse suspeita de doença no navio, o capitão era ordenado a seguir para o posto de quarentena, onde os passageiros e tripulantes eram isolados e a embarcação totalmente fumigada e retida por 40 dias (13,17) Esse sistema, que era utilizado por cidades italianas, foi posteriormente adotado por outros países europeus.

Os primeiros regulamentos de quarentena ingleses, redigidos em 1663, previam o confinamento (no estuário do Tamisa) de navios com passageiros ou tripulantes suspeitos de estarem infectados com a peste. Em 1683, em Marselha, novas leis exigiam que todas as pessoas suspeitas de ter peste fossem colocadas em quarentena e desinfetadas. Nos portos da América do Norte, a quarentena foi introduzida durante a mesma década em que se tentavam controlar a febre amarela, que apareceu pela primeira vez em Nova York e Boston em 1688 e 1691, respectivamente (18) Em algumas colônias, o medo de surtos de varíola, que coincidiu com a chegada de navios, induziu as autoridades sanitárias a ordenar o isolamento domiciliar obrigatório de pessoas com varíola (19), embora outra estratégia polêmica, a inoculação, estivesse sendo usada para proteger contra a doença. Nos Estados Unidos, a legislação de quarentena, que até 1796 era de responsabilidade dos estados, foi implementada em cidades portuárias ameaçadas pela febre amarela das Índias Ocidentais (18) Em 1720, medidas de quarentena foram prescritas durante uma epidemia de peste que eclodiu em Marselha e devastou a costa mediterrânea da França e causou grande apreensão na Inglaterra. Na Inglaterra, o Ato de Quarentena de 1710 foi renovado em 1721 e 1733 e novamente em 1743 durante a desastrosa epidemia em Messina, Sicília (19) Um sistema de vigilância ativa foi estabelecido nas principais cidades do Levante. A rede, formada por cônsules de vários países, conectava os grandes portos mediterrâneos da Europa Ocidental (15).

Cólera

No século XVIII, o aparecimento da febre amarela nos portos mediterrâneos da França, Espanha e Itália forçou os governos a introduzir regras envolvendo o uso de quarentena (18) Mas no século XIX, outro flagelo ainda mais assustador, a cólera, estava se aproximando (20) O cólera surgiu durante um período de crescente globalização causada por mudanças tecnológicas no transporte, uma redução drástica no tempo de viagem de navios a vapor e ferrovias e um aumento no comércio. O cólera, a "doença asiática", atingiu a Europa em 1830 e os Estados Unidos em 1832, aterrorizando as populações (2124) Apesar do progresso em relação à causa e transmissão da cólera, não houve resposta médica eficaz (25).

Durante a primeira onda de surtos de cólera, as estratégias adotadas pelas autoridades de saúde foram essencialmente aquelas que haviam sido usadas contra a peste. Novos lazaretos foram planejados nos portos ocidentais, e uma extensa estrutura foi estabelecida perto de Bordeaux, França (26) Nos portos europeus, os navios eram proibidos de entrar se tivessem "licenças impuras" (ou seja, navios que chegavam de regiões onde a cólera estava presente) (27) Nas cidades, as autoridades adotaram intervenções sociais e as ferramentas tradicionais de saúde. Por exemplo, viajantes que tiveram contato com pessoas infectadas ou que vieram de um lugar onde a cólera estava presente foram colocados em quarentena, e os doentes foram forçados a ir para os lazaretos. Em geral, as autoridades locais tentaram manter os membros marginalizados da população longe das cidades (27) Em 1836, em Nápoles, as autoridades de saúde impediram a livre circulação de prostitutas e mendigos, que eram considerados portadores de contágio e, portanto, um perigo para a população urbana saudável (27,28) Essa resposta envolveu poderes de intervenção desconhecidos durante tempos normais, e as ações geraram medo e ressentimento generalizados.

Em alguns países, a suspensão da liberdade pessoal deu a oportunidade - usando leis especiais - de parar a oposição política. No entanto, o contexto cultural e social era diferente daquele dos séculos anteriores. Por exemplo, o uso crescente da quarentena e do isolamento entrou em conflito com a afirmação dos direitos dos cidadãos e os sentimentos crescentes de liberdade pessoal fomentados pela Revolução Francesa de 1789. Na Inglaterra, os reformadores liberais contestaram tanto a quarentena quanto a vacinação compulsória contra a varíola. As tensões sociais e políticas criaram uma mistura explosiva, culminando em rebeliões e levantes populares, um fenômeno que afetou vários países europeus (29) Nos estados italianos, nos quais os grupos revolucionários assumiram a causa da unificação e do republicanismo (27), as epidemias de cólera forneceram uma justificativa (ou seja, a aplicação de medidas sanitárias) para aumentar o poder de polícia.

Em meados do século XIX, um número crescente de cientistas e administradores de saúde começou a alegar a impotência dos cordões sanitários e da quarentena marítima contra o cólera. Essas medidas antigas dependiam da ideia de que o contágio se espalhava pela transmissão interpessoal de germes ou por roupas e objetos contaminados (30) Essa teoria justificava a gravidade das medidas utilizadas contra o cólera, afinal, havia funcionado bem contra a peste. O tempo de quarentena (40 dias) ultrapassou o período de incubação do bacilo da peste, proporcionando tempo suficiente para a morte das pulgas infectadas necessárias à transmissão da doença e do agente biológico, Yersinia pestis. No entanto, a quarentena era quase irrelevante como método primário de prevenção da febre amarela ou cólera. Um cordão marítimo rígido só poderia ser eficaz na proteção de pequenas ilhas. Durante a terrível epidemia de cólera de 1835-1836, a ilha da Sardenha foi a única região italiana a escapar da cólera, graças à vigilância de homens armados que tinham ordens para impedir, pela força, qualquer navio que tentasse desembarcar pessoas ou cargas na costa (27).

Figura 1. . . Desinfecção de roupas. Fronteira França-Itália durante a epidemia de cólera de 1865-1866. (Fotografia em poder do autor).

Figura 2. . . Quarentena. O dormitório feminino. Fronteira França-Itália durante a epidemia de cólera de 1865-1866. (Fotografia em poder do autor).

Figura 3. . . O controle de viajantes de países afetados pela cólera, que chegavam por terra na fronteira entre a França e a Itália durante a epidemia de cólera de 1865-1866. (Fotografia em poder do autor).

Os anticontagionistas, que não acreditavam na transmissibilidade do cólera, contestaram a quarentena e alegaram que a prática era uma relíquia do passado, inútil e prejudicial ao comércio. Reclamavam que a livre circulação de viajantes era dificultada por cordões sanitários e por controles nas passagens de fronteira, que incluíam fumigação e desinfecção de roupas (Figuras 1,2,3). Além disso, a quarentena inspirava uma falsa sensação de segurança, o que era perigoso para a saúde pública porque impedia as pessoas de tomarem as precauções corretas. A cooperação e coordenação internacionais foram prejudicadas pela falta de acordo sobre o uso da quarentena. A discussão entre cientistas, administradores de saúde, burocracias diplomáticas e governos se arrastou por décadas, como demonstrado nos debates nas Conferências Sanitárias Internacionais (31), principalmente após a abertura, em 1869, do Canal de Suez, que foi percebido como uma porta para as doenças do Oriente (32)Apesar das dúvidas generalizadas sobre a eficácia da quarentena, as autoridades locais relutaram em abandonar a proteção das estratégias tradicionais que forneciam um antídoto para o pânico da população, que, durante uma epidemia grave, poderia produzir o caos e perturbar a ordem pública (33).

Uma virada na história da quarentena ocorreu depois que os agentes patogênicos das doenças epidêmicas mais temidas foram identificados entre os séculos XIX e XX. A profilaxia internacional contra cólera, peste e febre amarela passou a ser considerada separadamente. À luz dos novos conhecimentos, uma reestruturação dos regulamentos internacionais foi aprovada em 1903 pela 11ª Conferência Sanitária, na qual a famosa convenção de 184 artigos foi assinada (31).

Gripe

Em 1911, a décima primeira edição da Encyclopedia Britannica enfatizou que "o antigo sistema preventivo sanitário de detenção de navios e homens" era "uma coisa do passado" (34) Na época, a batalha contra as doenças infecciosas parecia prestes a ser vencida, e as antigas práticas de saúde só seriam lembradas como uma falácia científica arcaica. Ninguém esperava que dentro de alguns anos, as nações seriam novamente forçadas a implementar medidas de emergência em resposta a um enorme desafio de saúde, a pandemia de influenza de 1918, que atingiu o mundo em três ondas durante 1918-1919 (Apêndice Técnico). Na época, a etiologia da doença era desconhecida. A maioria dos cientistas pensava que o agente patogênico era uma bactéria, Haemophilus influenzae, identificado em 1892 pelo bacteriologista alemão Richard Pfeiffer (35).

Durante 1918-1919, em um mundo dividido pela guerra, os sistemas multilaterais de vigilância sanitária, que foram laboriosamente construídos durante as décadas anteriores na Europa e nos Estados Unidos, não foram úteis no controle da pandemia de influenza. O ancestral da Organização Mundial da Saúde, o Office International d'Hygiène Publique, localizado em Paris (31), não poderia desempenhar qualquer papel durante o surto. No início da pandemia, os médicos do exército isolaram soldados com sinais ou sintomas, mas a doença, que era extremamente contagiosa, se espalhou rapidamente, infectando pessoas em quase todos os países. Várias respostas à pandemia foram tentadas. As autoridades de saúde nas principais cidades do mundo ocidental implementaram uma série de estratégias de contenção de doenças, incluindo o fechamento de escolas, igrejas e teatros e a suspensão de reuniões públicas. Em Paris, um evento esportivo, no qual 10.000 jovens deveriam participar, foi adiado (36) A Universidade de Yale cancelou todas as reuniões públicas no campus e algumas igrejas na Itália suspenderam confissões e cerimônias fúnebres. Os médicos incentivaram o uso de medidas como higiene respiratória e distanciamento social. No entanto, as medidas foram implementadas tarde demais e de forma descoordenada, especialmente em áreas dilaceradas pela guerra, onde as intervenções (por exemplo, restrições de viagem, controles de fronteira) eram impraticáveis, durante um tempo em que o movimento de tropas estava facilitando a propagação do vírus.

Na Itália, que juntamente com Portugal apresentava a maior taxa de mortalidade da Europa, as escolas foram fechadas após o primeiro caso de pneumonia hemorrágica invulgarmente grave, no entanto, a decisão de fechar as escolas não foi simultaneamente aceite pelas autoridades sanitárias e escolares (37) As decisões tomadas pelas autoridades de saúde muitas vezes pareciam mais focadas em tranquilizar o público sobre os esforços que estão sendo feitos para interromper a transmissão do vírus, em vez de realmente interromper a transmissão do vírus (35) As medidas adotadas em muitos países afetaram desproporcionalmente os grupos étnicos e marginalizados. Em possessões coloniais (por exemplo, Nova Caledônia), as restrições às viagens afetaram as populações locais (3) O papel que a mídia desempenharia em influenciar a opinião pública no futuro começou a tomar forma. Os jornais assumiram posições conflitantes sobre as medidas de saúde e contribuíram para a disseminação do pânico. O maior e mais influente jornal da Itália, Corriere della Sera, foi forçado pelas autoridades civis a parar de relatar o número de mortes (150-180 mortes / dia) em Milão porque as notícias causaram grande ansiedade entre os cidadãos. Em nações devastadas pela guerra, a censura causou falta de comunicação e transparência em relação ao processo de tomada de decisão, levando à confusão e incompreensão das medidas e dispositivos de controle de doenças, como máscaras faciais (ironicamente chamadas de "focinheiras" em italiano) (35).

Durante a segunda pandemia de influenza do século XX, a pandemia de “gripe asiática” de 1957–1958, alguns países implementaram medidas para controlar a disseminação da doença. A doença era geralmente mais branda do que a causada pela gripe de 1918, e a situação global era diferente. A compreensão da influenza havia avançado muito: o agente patogênico havia sido identificado em 1933, vacinas para epidemias sazonais estavam disponíveis e medicamentos antimicrobianos estavam disponíveis para tratar complicações. Além disso, a Organização Mundial da Saúde implementou uma rede global de vigilância da influenza que forneceu um alerta precoce quando o novo vírus da influenza (H2N2) começou a se espalhar na China em fevereiro de 1957 e em todo o mundo no final daquele ano. As vacinas haviam sido desenvolvidas em países ocidentais, mas ainda não estavam disponíveis quando a pandemia começou a se espalhar simultaneamente com a abertura de escolas em vários países. As medidas de controle (por exemplo, fechamento de asilos e creches, proibição de reuniões públicas) variaram de país para país, mas, na melhor das hipóteses, apenas adiaram o início da doença por algumas semanas (38) Este cenário se repetiu durante a pandemia de influenza A (H3N2) de 1968–1969, a terceira e mais branda pandemia de influenza do século XX. O vírus foi detectado pela primeira vez em Hong Kong no início de 1968 e foi introduzido nos Estados Unidos em setembro de 1968 por fuzileiros navais dos EUA voltando do Vietnã. No inverno de 1968-1969, o vírus se espalhou pelo mundo, o efeito foi limitado e não havia medidas específicas de contenção.

Um novo capítulo na história da quarentena foi inaugurado no início do século XXI, quando as medidas de intervenção tradicionais foram ressuscitadas em resposta à crise global precipitada pelo surgimento da SARS, uma ameaça especialmente desafiadora para a saúde pública em todo o mundo. A SARS, que se originou na província de Guangdong, China, em 2003, se espalhou ao longo das rotas aéreas e rapidamente se tornou uma ameaça global devido à sua transmissão rápida e alta taxa de mortalidade e porque a imunidade protetora na população em geral, medicamentos antivirais eficazes e vacinas eram em falta. No entanto, em comparação com a gripe, a SARS teve menor infecciosidade e um período de incubação mais longo, proporcionando tempo para instituir uma série de medidas de contenção que funcionaram bem (39) As estratégias variaram entre os países mais afetados pela SARS (República Popular da China e Região Administrativa Especial de Hong Kong, Cingapura e Canadá). No Canadá, as autoridades de saúde pública solicitaram que as pessoas que pudessem ter sido expostas à SARS se colocassem voluntariamente em quarentena. Na China, a polícia isolou prédios, organizou postos de controle nas estradas e até instalou câmeras da Web em residências particulares. Havia um controle mais forte das pessoas nas camadas sociais mais baixas (os governos em nível de aldeia tinham o poder de isolar os trabalhadores das áreas afetadas pela SARS). Funcionários da saúde pública em algumas áreas recorreram a medidas policiais repressivas, usando leis com punições extremamente severas (incluindo a pena de morte), contra aqueles que violaram a quarentena. Como havia ocorrido no passado, as estratégias adotadas em alguns países durante esta emergência de saúde pública contribuíram para a discriminação e estigmatização de pessoas e comunidades e levantaram protestos e reclamações contra limitações e restrições de viagens.

Conclusões

Mais de meio milênio desde que a quarentena se tornou o centro de uma estratégia multicomponente para controlar surtos de doenças transmissíveis, as ferramentas tradicionais de saúde pública estão sendo adaptadas à natureza das doenças individuais e ao grau de risco de transmissão e estão sendo efetivamente utilizadas para conter surtos, como o surto de SARS em 2003 e a pandemia de influenza A (H1N1) pdm09 de 2009. A história da quarentena - como ela começou, como era usada no passado e como é usada na era moderna - é um tópico fascinante na história do saneamento. Ao longo dos séculos, desde a Peste Negra até as primeiras pandemias do século XXI, as medidas de controle de saúde pública têm sido uma forma essencial para reduzir o contato entre pessoas enfermas e suscetíveis à doença. Na ausência de intervenções farmacêuticas, essas medidas ajudaram a conter a infecção, retardar a disseminação de doenças, evitar o terror e a morte e manter a infraestrutura da sociedade.

Quarentena e outras práticas de saúde pública são formas eficazes e valiosas de controlar surtos de doenças transmissíveis e ansiedade pública, mas essas estratégias sempre foram muito debatidas, percebidas como intrusivas e acompanhadas em todas as idades e sob todos os regimes políticos por uma corrente de suspeita, desconfiança , e motins. Essas medidas estratégicas levantaram (e continuam a levantar) uma variedade de questões políticas, econômicas, sociais e éticas (39,40) Em face de uma dramática crise de saúde, os direitos individuais muitas vezes foram espezinhados em nome do bem público. O uso de segregação ou isolamento para separar pessoas suspeitas de estarem infectadas frequentemente violou a liberdade de pessoas aparentemente saudáveis, na maioria das vezes de classes mais baixas, e grupos étnicos e minoritários marginalizados foram estigmatizados e enfrentaram discriminação. Esse recurso, quase inerente à quarentena, traça uma linha de continuidade desde o momento da peste até a pandemia de influenza A (H1N1) pdm09 de 2009.

A perspectiva histórica ajuda a compreender até que ponto o pânico, associado ao estigma social e ao preconceito, frustrou os esforços da saúde pública para controlar a propagação de doenças. Durante os surtos de peste e cólera, o medo da discriminação e da quarentena e isolamento obrigatórios levaram os grupos sociais e minorias mais frágeis a fugir das áreas afetadas e, assim, contribuir para disseminar a doença mais e mais rapidamente, como ocorre regularmente em cidades afetadas por surtos de doenças mortais . Mas no mundo globalizado, o medo, o alarme e o pânico, aumentados pela mídia global, podem se espalhar mais longe e mais rápido e, portanto, desempenhar um papel maior do que no passado. Além disso, neste cenário, populações inteiras ou segmentos de populações, não apenas pessoas ou grupos minoritários, correm o risco de serem estigmatizados. Em face dos novos desafios colocados no século XXI pelo risco crescente de surgimento e rápida disseminação de doenças infecciosas, a quarentena e outras ferramentas de saúde pública continuam sendo essenciais para a preparação da saúde pública. Mas essas medidas, por sua natureza, requerem atenção vigilante para não causar preconceito e intolerância. A confiança pública deve ser conquistada por meio de comunicações regulares, transparentes e abrangentes que equilibrem os riscos e benefícios das intervenções de saúde pública. Respostas bem-sucedidas às emergências de saúde pública devem levar em conta as valiosas lições do passado (39,40).

O Prof Tognotti é professor de história da medicina e ciências humanas na Universidade de Sassari. Seu principal interesse de pesquisa é a história das doenças epidêmicas e pandêmicas na era moderna.


Assista o vídeo: Volume Review