sexta-feira, 27 de janeiro de 2012

Paradoxo de Zenão: solução!?

disponivel na AMAZON.COM livros de autoria de prof Msc Roberto da Silva Rocha Roberto da Silva Rocha, professor universitário e cientista político

Uma nova abordagem do paradoxo do não-movimento de Zenão

Segundo Boyer “a Dicotomia e o Aquiles argumentam que o movimento é impossível sob a hipótese de subdivisibilidade indefinida do espaço e do tempo”.

Então, de acordo com estes princípios, precisamos de uma nova teoria para o tempo. Esta nova teoria do espaço-tempo implicará em descrever um novo conceito de movimento, que nada mais é que a relação entre o espaço e o tempo referente às coordenadas espaciais. (referenciais)

Zenão mostrou que se os conceitos de contínuo e infinita divisão forem aplicados ao movimento de um corpo, então este se torna impossível.

A divisão de números não é necessariamente sinônimo de divisão de uma grandeza.

O instrumento que usa a lei de Hooke para medir forças é o dinamômetro.

A Lei de Hooke Aplicada a Materiais

A Lei de Hooke também é percebida após a realização do ensaio de tração e deste é obtido o gráfico de Tensão x Extensão. O comportamento linear mostrado no início do gráfico está nos afirmando que a Tensão é proporcional à Extensão. Logo, existe uma constante de proporcionabilidade entre essas duas grandezas. Sendo,

σ = E.ε

onde:

σ = Tensão em Pascal

ε = Deformação específica, (adimensional)

E = Módulo de elasticidade ou Módulo de Young



Somente os objetos que possuem deformação elástica podem mover-se.

Esta tese é a base para a explicação do movimento. Um corpo deformável de forma inelástica somente pode mover-se como um objeto rígido e em uma trajetória com direção e sentidos definidos se estiver em um receptáculo que confira a ele as características de uma deformação elástica. Caso contrário o corpo se dispersa em muitas direções e sentidos.

Ensaios:

1) Pegue um taco de golf e tente arremessar bolas de materiais diferentes com tacadas;

2) Suponha que a primeira bola de golf seja feita de material rígido como marfim;

3) Suponha que a segunda bola de golf seja feita de água;

4) Suponha que a terceira bola seja feita de isopor;

Agora tomemos a comparação das trajetórias das três diferentes bolas de golf:

a) A primeira bola de golf feita de marfim conseguiu absorver praticamente toda a energia do impulso do taco de golf e seguiu uma trajetória bem definida e alcançou a maior distância e altura parabólica;

b) A segunda bola imaginária de água simplesmente dissipou-se abrindo-se em leque e as gotas de água espalharam-se nas proximidades do local da tacada, dissipando a energia do impulso do taco;

c) A terceira bola imaginária de isopor partiu-se em fragmentos e cada fragmento percorreu uma distância bem menor do que a da primeira bola, mesmo que aplicássemos mais impulso do que o aplicado à primeira bola.

Muitos poderiam criticar da total falta de controle das variáveis neste experimento. Concordo. Mas, não foi preciso abstrair tantas variáveis, sabemos desta experiência sem conhecimento de Física, somente não sabíamos por que corpos rígidos e inelásticos são os melhores corpos balísticos, vamos descrever por quê.

Os corpos rígidos e elásticos são os melhores balísticos porque quando recebem um impulso vibram internamente, a sua estrutura molecular transfere para a secção seguinte de moléculas, a partir do ponto do objeto que recebeu o impulso, a energia, de modo que transfere a energia em forma de onda, esta energia percorre todo o corpo até a extremidade oposta e reflete-se de volta como uma onda ao ponto inicial do toque.

Quando a energia percorre todo o material ele se deforma variando o seu comprimento no sentido longitudinal ao deslocamento:

a) O ponto mais à retaguarda se contrai, assim o objeto diminui o seu cumprimento no sentido longitudinal;

b) A onda de deformação segue pela estrutura molecular do objeto e a secção seguinte da estrutura molecular se comprime, e a imediatamente anterior percorrida pela onda começa a se distender, como uma mola;

c) Quando a deformidade atinge a proa do objeto esta se distende antes da onda se refletir e retornar no sentido oposto;

d) Esta deformação da vanguarda do objeto é o deslocamento final do corpo que somados aos outros deslocamentos moleculares produz o movimento.

e) Assim, comprimindo e distendendo toda a cadeia molecular, o objeto todo se desloca como faz uma cobra em movimento.

Uma flecha lançada de um arco vibra longitudinalmente e também transversalmente em vôo.

A propósito, a flecha de Zenão, por coincidência, é dos objetos que caracteristicamente vibram em ambos os sentidos: longitudinalmente e transversalmente com grande amplitude.

Compreendendo a forma como os objetos se movem fica mais fácil entender e decifrar o enigma de Zenão.

Os objetos movem-se variando o seu comprimento, vibrando, assim avançando no espaço e no tempo através da portadora de onda.

CQD.

http://professorrobertorocha.blogspot.com/2011/12/o-gato-de-schrodinger-o-que-e-o-tempo.html Gostou do Blog O blog lhe foi útil Colabore para o autor Faça doações de valores A partir de US $ 1,00 Do you like this blog Is it useful to you donate from US $ 1,00 Bank Santander number 033 Brazil Agency 2139 Current 01014014-4 Bank of Brazil Agency 5197-7 Acount 257 333-4

quarta-feira, 25 de janeiro de 2012

Karl Marx e o Fim do Trabalho Assalariado

disponivel na AMAZON.COM livros de autoria de prof Msc Roberto da Silva Rocha Roberto da Silva Rocha, professor universitário e cientista político

Karl Marx e o Trabalho assalariado: o último bastião, vestigial, do escravismo

Ao começar a escrever este disserto não tinha noção da dimensão política e sociológica que representava o tema para a humanidade.


Somente após a sua publicação eletrônica, ao perceber a repercussão é que tomei consciência da gravidade que representa a ruptura de um contrato social da humanidade com o trabalhador, que representou o advento do capitalismo, resultante do fim da escravidão e da servidão feudal, os quais garantiam precariamente e compulsoriamente a sobrevivência mínima dos seres humanos trabalhadores (servos e/ou escravos).

Este contrato foi rompido pelo sistema capitalista através do processo do abandono material dos trabalhadores assalariados às leis do mercado de trabalho.

Compreendi a enorme tragédia que passou a significar para a humanidade a falta total da garantia da subsistência dos desempregados. A situação de desemprego constitui a maior tragédia moderna provocada inconscientemente e inconsequentemente pelo abandono do compromisso que a humanidade assumiu quando passou da forma de organização tribal, onde o indivíduo era autônomo e responsável único pela sua sobrevivência, e passou para o regime de contrato social de interdependência através da divisão do trabalho social onde cada um especializou-se em uma tarefa e passou a depender do outro especialista, deixando consequentemente de ser autônomo.

A contra-partida seria que todos trabalhassem cooperativadamente em solidariedade (orgânica e/ou mecânica) abrindo mão de sua autonomia e adjudicando à sociedade a responsabilidade pela sua sobrevivência.

Na servidão feudal o emprego e a subsistência estavam assegurados compulsoriamente, assim como na escravidão, onde o senhor garantia a alimentação e o abrigo para a escravaria, sem fazer aqui juízo de valor quanto aos outros direitos sociais suprimidos ou negados aos escravos ou dos servos, pelo menos a sobrevivência e o abrigo estavam garantidos nestes sistemas.

O que vemos hoje: romperam-se os contratos sociais da autonomia, no Feudo e na escravidão e em troca surgiu como sinestesia do capitalismo de mercado de trabalho o exército dos desempregados que regula o preço da mão-de-obra sempre disponível ao custo da fome, miséria, desespero, criminalidade, roubo, depressão, impotência, vícios, drogadição, tudo em nome da conquista da liberdade e da autonomia total daqueles que podem pagar por ela financeiramente.


Parece incrível que este sistema de organização da sociedade ainda sobreviva aos tempos modernos.
Ao longo dos séculos as fases de acomodação cultural e comportamental ditadas pelas condições da civilização humana foram construindo sistemas de organização social que tentaram a melhor fórmula para a satisfação das necessidades sociais e individuais.

Estes sistemas diversos de divisão do trabalho social tem sido os objetos de estudos filosóficos os quais não pretendo cotejar, entre outros motivos, pela complexidade que tal abordagem exigiria, e porque o aprofundamento deste tópico torna-se desnecessário ante a pretensão teleológica desta dissertação que é desconstruir a instituição do contrato de trabalho assalariado.

Começando pelo fim, diríamos que o trabalho assalariado tem sido visto, desde os pressocialistas, e principalmente, por ninguém menos do que Karl Marx que foi o maior crítico desta forma de organização social capitalista como uma exploração do ser humano, desumanizando-o. Seus preceitos foram duramente condenados por Marx que considerou o trabalho assalariado o maior escândalo social do capitalismo: uma exploração criminosa da mãodeobra pelo processo da maisvalia capitalista, onde, segundo Marx, o trabalho humano assalariado explorado pelo capitalista produz uma diferença em favor do capitalista através da exploração financeira da mãodeobra de modo selvagem, segundo ele, um roubo.

Os falanstérios de Fourier e outros dos pressocialistas apontaram o caminho que as revoluções do socialismo e comunismo reais não seguiram, optaram Stalin e Fidel por reproduzirem a opressão e a alienação do trabalho e do trabalhador, recriando o capitalismo de Estado em lugar das cooperativas de produção: substituiram o capitalista pelos membros da Nomenklatura Estatal, e deu no que deu.

quarta-feira, 18 de janeiro de 2012

O Racismo no Brasil

disponivel na AMAZON.COM livros de autoria de prof Msc Roberto da Silva Rocha Roberto da Silva Rocha, professor universitário e cientista político

Sectarismo no Mundo

O sectarismo pode ser visto convenientemente, por uma mente politizada, como uma das muitas metamorfoses do epifenômeno do poder.

Poderia referenciar Jean Jacques Rousseau e a sua teoria da misantropia social. Porém, não é preciso dispor desta muleta antropológica, pois que a competição entre os indivíduos, institucionalizada ou não, como nos nacionalismos, por exemplo, é preexistente à sociedade.

Assim temos imanentemente uma sociedade clivada entre grupos, classes, castas, e comunidades dividida pelos mais diversos e estranhos critérios.

Estes critérios fazem parte de qualquer projeto de pesquisa sócio-etário-sexual-étnico-escolar-local de uma bem estruturada metodologia de pesquisa social humana.

Qualquer pesquisador consciente e metódico quer saber a que categoria pertence o grupo cuja opinião se quer analisar ou avaliar.

terça-feira, 10 de janeiro de 2012

MONOGAMIA

disponivel na AMAZON.COM livros de autoria de prof Msc Roberto da Silva Rocha Roberto da Silva Rocha, professor universitário e cientista político

MONOGAMIA

Assim, a prática da monogamia tantas contradições tem trazido para o colo das pessoas que se vêm assustadas com a possibilidade de administrar duas famílias, e ter que violentar o sentimento de alguém tangido pelo desiderato da ordem social, e ter que abandonar uma das duas famílias sem querer nem ter motivos outros que não o ordenamento impositivo da sociedade.


Segundo a corrente da Antropologia seguida pelos estruturalistas, o objeto social humano é um artefato construído coletivamente com todas as contingências imanentes aos constrangimentos e formatações coletivas, mais precisamente, é o indivíduo socializado um artefato antropológico subordinado à arquitetura do grupo social no círculo mais includente que um indivíduo possa pertencer no limite de sua totalidade subjetiva e única. A isto se chama subcultura.

As diversidades subculturais das civilizações humanas, nos continentes, subcontinentes, nas diferentes eras e épocas históricas, dos diferentes grupos sociais humanos, das diferentes religiões, das etnias e subetnias, dos guetos urbanos e suburbanos, enfim das subdivisões mais multiculturalistas e heterogêneas todos possuem sua identidade institucional nem sempre desvendável, mas, enclausuradas no comportamento socialmente consentido, salvo as construções e desconstruções inerentes ao conflito irremediável e inelutável do novo contra o velho, ou do remake nostálgico que recria e repagina comportamentos pretéritos.

Certos comportamentos atávicos resistem em sofrer a inevitável mutação evolutiva no comportamento social, institucionalizando-se, e esta resistência vai enclausurando-se na sociedade e no limite se transforma em um quisto social, desenvolvendo-se como um câncer que na metástase da mudança interparadigmática inevitável tornar-se uma anomalia completa social se torna anacrônica, se refugiando nos guetos da resistência, se tornando resiliente e residual.

É nesse ponto que nada parece justificar a falta de ação social no sentido e direção da mudança. Este instante de perplexidade torna a visão da realidade turva e confusa. A saída parece cada vez mais iminente, mas bastante latente.

Mudanças sociais são traumáticas. Significa sair do conforto do conhecido das estruturas estabilizadas para cair em uma aventura no limite do novo, desconhecido, imprevisto da vanguarda.

Assim, sem que se faça a reflexão racional, lógica, histórica, psicológica, econômica, política, estatística, empírica, social, antropológica e prática o conforto da repetição nos deixa seguros contra os argumentos da mudança.

Contra a tradição a mudança urge, pois a realidade teima em ser uma violação constante, nem sempre contínua, insistente contra a prática social institucionalizada.

Papéis sociais são expectativas de comportamento da sociedade. Podem ser contraditórios, cooperativos, reforçados, criminalizados, reprimidos, reconstruídos, coercitivos, censurados, reprovados socialmente, mas fazem parte do estatuto de pertencimento aos grupos e classes sociais, onde o indivíduo multifiliado pode e deve pertencer a diversificados grupos simultaneamente, e ter de prestar lealdade a cada um dos grupos e classes sociais em função destes papéis sociais, muitas vezes ocultando conflitos pessoais e alterando o seu comportamento em função destas lealdades primárias.
Sociedades criam e deletam os papéis sociais.

Não se nasce masculino ou feminino, pai ou mãe. Monogamia não é imanente ao ser humano. Ninguém nasce monogâmico, ou poligâmico.

Os comportamentos são construídos no sistema político-social. Assim a sociedade formata o modo de ser com as expectativas de comportamento social para: a mãe, pai, filho, jovem, velho, solteiro, casado.

Ninguém nasce negro ou branco, os trejeitos masculinos ou femininos, negroides ou branquelos são resultantes de treinamentos sociais fornecidos pelos estatutos obrigatórios dos grupos sociais.

Quanto sofrimento se adiciona em uma relação múltipla que foi capaz de doar tanto amor e reparti-lo e ampliá-lo e replicá-lo, mas que por algum motivo perdido no tempo obriga pessoas a romper laços de carinho tão singelos e diferentes apenas em nome de uma norma social impositiva e vazia.

Quem disse que o nosso coração tem a pequenez de se abrir de forma unidirecional, apenas seguir e se condicionar às normas impositivas da sociedade?

O desenho familiar é ditado pelas circunstâncias decorrentes do devir, da fatalidade, da realidade imposta pelos fatos, assim vemos desfilar diante de nossa perplexidade grupos familiares uni familiares desde o solteiro que divide o seu lar com outro(s) solteiro(s), os solteiros que dividem o seu lar com um animal de estimação (gato, cachorro, passarinho, tartaruga, coelho), a mãe viúva com o seu filho, podendo se juntar a ela a avó ou o avô viúvos, o pai-mãe com o seu filho, a avó e o avô que cuidam do neto, dois irmãos que dividem o lar, os desenhos familiares já tiveram no passado da Casa-grande um desenho familiar mais complexo que incluía mesmo três ou mais gerações compartilhando o lar com todos os agregados familiares de genros, noras, camareiras, mucamas, escravas amas de leite, criados, cozinheiros, jardineiros, seguranças, motoristas, capatazes, e até parentes mais distantes, netos, até mesmo os filhos!

Não existem provas de que um coração não seja capaz de amar mais de uma vez ao mesmo tempo. Em outras eras, em outras culturas e em outras ocasiões a exceção se tornou a regra deste comportamento.

Derivando o comportamento imposto pela sociedade baseado na monogamia vieram: o ciúme, o ódio, a frustração, o sentimento de perda, a dor da perda de afeto, e a sentença final de quem é obrigado a se dividir entre o amor e a norma social.

Não seria a lei que imporia limites ao desejo, nem à paixão. Amamos aos nossos dois pais, amamos a todos os nossos filhos, amamos a todos os nossos amigos, amamos a um time inteiro de futebol, mas somos impedidos de amarmos a mais de um companheiro cônjuge.

De onde vem tanto desamor? Quem foi capaz de castrar o coração apaixonado e limitar nossa capacidade de ampliar o círculo de afeto?

Não existe limite para o ódio, por que haveria limite para o amor?

Em que a monogamia garantiria a estabilidade das estruturas do Estado e da família?

Quantos casamentos, namoros, noivados, amores foram desfeitos brutalmente enquanto os corações continuaram se amando um ao outro por causa desta regra da monogamia?

Até quando vamos continuar fingindo que a regra é maior do que todas as possibilidades de se amar?

Nenhuma lei ou regra no mundo conseguiu evitar que o ódio social e institucional separasse dois corações quando desejam se encontrar, seja entre um judeu e uma palestina, seja entre um sérvio e uma muçulmana, seja entre um comunista e uma liberal, seja entre um homem rico e uma jovem pobre, entre o capitalista e a sua faxineira.

O amor extrapola barreiras onde nenhum outro fato ou ato pode servir de argumento necessário e suficiente para determinar a sua autoextinção.

Existem infinitas formas de se amar, nenhuma delas pertence aos formalismos das equações dos terapeutas e conselheiros conjugais, amores gentis, amor fraternal, amor paternal, amor lascivo e luxuriante, amor egoísta, amor altruísta, amor comportado, amor secreto, amor comprado, amor doado, amor sofrido, amor inventado, amor impossível.

Assim vamos vivendo a nossa contravenção dia-a-dia, seguindo em nossa miséria sentimental com tanto sentimento deserdado.

P.s.: Segundo a Bíblia dos cristãos:


A poligamia começou não muito depois do desvio de Adão. A primeira menção dela na Bíblia refere-se a um descendente de Caim, Lameque, a respeito de quem ela diz: “[Ele] passou a tomar para si duas esposas.” (Gên 4:19)

O concubinato era praticado sob a lei patriarcal e sob o pacto da Lei. A concubina tinha uma situação legal; a posição dela não era uma questão de fornicação ou de adultério. Sob a Lei, se o filho primogênito dum homem fosse filho da sua concubina, era este filho quem receberia a herança de primogênito. — De 21:15-17.

O concubinato e a poligamia, sem dúvida, habilitaram os israelitas a aumentar numericamente com muito mais rapidez, e, assim, ao passo que Deus não estabeleceu esses arranjos, mas apenas os permitiu e regulou, eles cumpriram certo objetivo naquele tempo. (Êx 1:7) Até mesmo Jacó, que foi logrado a entrar em poligamia por seu sogro, foi abençoado em ter 12 filhos e algumas filhas de suas duas esposas e as criadas delas, as quais se tornaram concubinas de Jacó. — Gên 29:23-29; 46:7-25.

Enquanto Salomão permanecia fiel à adoração de Deus, ele prosperava. É evidente que seus provérbios foram proferidos e os livros de Eclesiastes e O Cântico de Salomão, bem como pelo menos um dos Salmos (Sal 127), foram escritos durante o seu período de serviço fiel a Deus. No entanto, Salomão começou a desconsiderar a lei de Deus Se Desviou da Justiça. Lemos: “E o próprio Rei Salomão amava muitas mulheres estrangeiras além da filha de Faraó, mulheres moabitas, amonitas, edomitas, sidônias e hititas, das nações de que Deus havia dito aos filhos de Israel: ‘Não deveis entrar no meio delas e elas mesmas não devem entrar no vosso meio; decerto inclinarão o vosso coração a seguir os seus deuses.’ Foi a elas que Salomão se apegou para as amar.

E ele veio a ter setecentas esposas, princesas, e trezentas concubinas; e suas esposas gradualmente lhe inclinaram o coração. E sucedeu, no tempo da velhice de Salomão, que as próprias esposas dele lhe haviam inclinado o coração para seguir outros deuses; e seu coração não se mostrou pleno para com Deus, seu Deus, como o coração de Davi, seu pai.

E Salomão começou a ir atrás de Astorete, deusa dos sidônios, e atrás de Milcom, a coisa repugnante dos amonitas. E Salomão começou a fazer o que era mau aos olhos de Deus e não seguiu plenamente a Deus como Davi, seu pai.

Foi então que Salomão passou a construir um alto a Quemós, a coisa repugnante de Moabe, no monte que estava defronte de Jerusalém, e a Moloque, a coisa repugnante dos filhos de Amom.

E foi assim que ele fez para todas as suas esposas estrangeiras que faziam fumaça sacrificial e ofereciam sacrifícios aos seus deuses.” — 1Rs 11:1-8.

Conclusão: Deus não estabeleceu esses arranjos, mas apenas os permitiu e regulou, eles cumpriram certo objetivo naquele tempo (Êx 1:7)

Se nós pensarmos, racionalmente, perguntaríamos: com quem se casaram os filhos de Adão e de Eva?

A resposta racional, e óbvia, inescapável é que os filhos de Adão e de Eva casaram-se entre si, e os seus netos casaram-se entre si, também como se pode concluir, muita endogamia ocorreu ali: primos com primas, irmãos entre si, possivelmente tios com sobrinhas, e outros arranjos possíveis e quase obrigatórios por total falta de alternativas para casamentos exógenos.

Como se vê, a Bíblia acabou provocando mais problemas do que respostas para a questão do casamento endogâmico, que é socialmente mais perverso do que a poligamia.

Os respeitosos teólogos tentaram colocar luzes sobre a questão moral da poligamia, mas como se vê, ao procurarem argumentos nas escrituras sagradas acabam nos levando a discussões muito mais comprometedoras no âmbito moral.

Gostou do Blog O blog lhe foi útil Colabore para o autor Faça doações de valores A partir de US $ 1,00 Do you like this blog Is it useful to you donate from US $ 1,00 Bank Santander number 033 Brazil Agency 2139 Current 01014014-4 Bank of Brazil Agency 5197-7 Acount 257 333-4

quarta-feira, 4 de janeiro de 2012

A Pseudopsicopedagogia da Dor

disponivel na AMAZON.COM livros de autoria de prof Msc Roberto da Silva Rocha Roberto da Silva Rocha, professor universitário e cientista político

A Pseudopsicopedagogia da punição


No Brasil está se implantando a corrente da AntiPedagogia: a Pedagogia da punição.

É uma corrente nova-velha que preconiza a correção punitiva pavloviana. Em lugar de ensinar, de apoiar as instituições que instruem e que fornecem um treinamento social aos indivíduos, ela acredita que punir seja mais eficaz do que educar e compartilhar valores sociais em lugar do reforço às instituições sociais partilhadas e compartilhadas pela sociedade.

Assim, pretendem substituir a família, a igreja, as normas morais, e os costumes tradicionais por regras legais que adotam punições draconianas tão severas quanto sejam as ofensas praticadas contra minorias sociais. As minorias seriam os alvos a serem contemplados pela expectativa de proteção oferecida pela nova pedagogia da dor.

Assim, pune-se o agressor homofóbico, o agressor machista, o agressor jornalista, o agressor pedófilo, o agressor motorista, o agressor antissocial de todo o gênero. Sumariamente.

Escolheu-se a punição em lugar do reforço social para enquadrar os comportamentos antissociais por que nas mentes autoritárias existe apenas alternativa da imposição de sua vontade e comportamento padronizado como única alternativa para enquadrar o diferente, o divergente e o excludente nas expectativas de uma sociedade monolítica, indiferenciada, do pensamento único hegemônico padronizado.

Todo e qualquer desvio de comportamento é percebido como uma grave ameaça social, como uma doença crônica e execrável, intolerável, inaceitável, por isso deve ser eliminado sem dar chance para recuperação, tratamento, reeducação. Apenas a punição é suficiente para estes casos.

As expectativas dessa corrente é a de um mundo sem mudanças sociais, sem conflitos, sem diferenças, sem tolerância. São autoritários e autossuficientes em sua sabedoria absoluta, não conseguem relativizar nem compartilhar valores sociais em sua clausura mental e intelectual. Acreditam-se portadores da verdade única. Nem se quer cogitam de alternativas de soluções para a sociedade.

Estes arautos da verdade espalham o seu evangelho da idéia utópica perfeita de uma sociedade perfeita sem nenhuma dúvida de que estão fazendo o melhor, por isso acreditam que as pessoas que discordam deles apenas ignoram a verdade, e não sabem o que é melhor para elas, por isso precisam tutelar toda a sociedade ignorante e mal informada, manipulada e alienada.

Não sabemos como descobriram estas verdades em que acreditam, mas sabemos que não têm autocensura, altercensura, nem autocrítica ou altercrítica. Tal a certeza de suas convicções, irrefutáveis, tão certas que não buscam justificá-las, pois são verdades autoevidentes, tão claras e tão caras para estes arautos do novo –mundo-perfeito.

Acreditam que se eles não existissem o mundo já estaria afundado no caos mais completo. A sua missão de redenção do mundo justifica-se de qualquer falha, ou ato não ortodoxo, até mesmo atos extralegais e antiéticos, claro, dentro de suas éticas restritas e fechadas.

Em sua trajetória revolucionária, revisionista e renovadora da sociedade precisam agir rápido e sem a cautela de outros momentos, pois são os profetas e guias da humanidade, por que as pessoas que ainda não compreenderam a sua nobre missão um dia o farão, no futuro, justificadas pela legitimação dos resultados benéficos, certamente, que advirão para todos os cidadãos e para a sociedade, que, assim agradecida, seria recompensada pelo sacrifício presente e pelas incompreensões do presente momento de falsa abstinência da razão.

Estamos nos tempos de uma velha religião chamada pensamento-único onde é proibida a divergência e a pluralidade. Não existe o multiculturalismo nem a tolerância contra a verdade original. Sãos os apóstolos e profetas do vale-tudo, não querem olhar para o passado e a História. Eles estão querendo reinventar o velho como se fosse o novo. Quem não estuda Filosofia comete e repete os mesmos erros. Por que não existe nada de novo para a Filosofia já faz 2000 anos...

Entramos na era da intolerância, do pensamento-único, da patrulha-ideológica do politicamente-correto, do preconceito do preconceito, dos chatos de todo gênero, ecochatos, homochatos, politochatos, pedochatos. Revolucionários sem causa. Não há mais revolução sexual a fazer, nem viradas políticas, nada a conquistar ou a desbravar, acabou-se a era das causas importantes para a humanidade, somente restaram os revolucionários tardios!

quinta-feira, 29 de dezembro de 2011

Governança e governabilidade: paradoxos da democracia

disponivel na AMAZON.COM livros de autoria de prof Msc Roberto da Silva Rocha GOVERNANÇA E GOVERNABILIDADE

O Paradoxo da Democracia

GOVERNANÇA

A governança é a capacidade para se dotarem de sistemas de representação, de instituições e processos, de corpos sociais, para elas mesmas se gerirem, em um movimento voluntário.

Esta capacidade de consciência (o movimento voluntário), de organização (as instituições, os corpos sociais), de conceitualização (os sistemas de representação), de adaptação às novas situações é uma característica das sociedades humanas.

É um dos traços que as distinguem das outras sociedades de seres vivos, animais e vegetais.

A Governança Corporativa visa a aumentar a probabilidade dos fornecedores de recursos garantirem para si o retorno sobre seu investimento, por meio de um conjunto de mecanismos de Administração.

O tema possui importância crescente, por ser bem difundida a hipótese de que a estrutura de governança afeta organização da empresa.

A questão é descobrir se existe uma estrutura de governança corporativa "melhor" ou "ideal". Vários códigos de governança foram elaborados com esta intenção... No Brasil, destacam-se os códigos do Instituto Brasileiro de Governança Corporativa (IBGC) e da Comissão de Valores Mobiliários (CVM).

São as instituições de Bretton Woods – Banco Mundial, Fundo Monetário Internacional – que a puseram na moda.

Ela engloba, com efeito, o conjunto dos poderes legislativo, executivo e judiciário, a administração, o governo, o parlamento, os tribunais, as coletividades locais, a administração do Estado, a Comissão Européia, o sistema das Nações Unidas...

A emergência progressiva dos Estados, dos princípios e das modalidades de governança pacífica, em sociedades sempre mais povoadas e sempre mais complexas, são os sinais, e para alguns, a própria definição da civilização[1].

Ora, o corporate governance consiste, precisamente, na criação de mecanismos tendentes à minimização da assimetria de informação existente entre a gestão e os detentores da propriedade ou de interesses relevantes (daí ter-se evoluído da consideração dos shareholders para outros stakeholders), de forma a permitir uma monitorização tão próxima quanto possível da associação dos objetivos da gestão àquela dos stakeholders: maximizar o valor da empresa.

Dito de outra forma, corporate governance é uma área […] que investiga a forma de garantir/motivar a gestão eficiente das empresas, utilizando mecanismos de incentivo como sejam: os contratos, os padrões organizacionais e a legislação. O que frequentemente se limita à questão da melhoria do desempenho financeiro, como, por exemplo, a forma como os proprietários das empresas podem garantir/motivar os gestores das empresas a apresentarem uma taxa de retorno competitiva - Cfr. definição defendida pelo Instituto Português do Corporate Governance, em http://www.cgov.pt/

GOVERNABILIDADE

Governabilidade é o conjunto de condições (instrumentos, mecanismos, regras e instituições) necessárias ao exercício do poder.

Compreende a forma de governo, as relações entre os poderes, o sistema partidário e o equilíbrio entre as forças políticas de oposição e situação. Diz respeito à capacidade política de decidir. A Governabilidade expressa a possibilidade em abstrato de realizar políticas públicas.

Governabilidade, assim, diz respeito às condições estruturais e legais de um determinado governo para promover as transformações necessárias. Já a Governança está relacionada à capacidade de colocar em prática as condições da Governabilidade. Governança é o potencial para transformar o ato governamental em ação pública, capaz de articular as ações do governo.

A Governabilidade deriva, ainda, da legitimidade dada pela sociedade ao Estado e a seu governo, enquanto a Governança é a capacidade abrangente financeira e administrativa de uma organização de praticar políticas.

Sem condições de Governabilidade é impossível uma adequada Governança, embora esta possa ser deficiente.

Por outro lado, uma boa Governança pode aumentar a legitimidade que um povo confere a seu governo, aumentando, assim, a Governabilidade do país.

Nota-se, portanto, que Governabilidade tem a ver com processo e Governança com tem a ver com estrutura. A segunda significa a existência de um arcabouço político, jurídico e social que permita a elaboração e o implemento de políticas públicas. A primeira, a capacidade do governo de bem administrar, articular os diversos interesses existentes e efetivamente implantar essas políticas.

GOVERNANÇA (governo) : CORRESPONDE À SUPEREXTRUTURA DO ESTADO .

GOVERNABILIDADE (administração): CORRESPONDE AO PROCESSO DE COLOCAR EM PRÁTICA O COMANDO DO ESTADO.

CAPACIDADE GOVERNATIVA (estratégia administrativa)

Após uma revisão dos conceitos de governabilidade e governança, como tratados pela literatura recente, apresento como sugestão, para fins analíticos, a utilização do termo capacidade governativa, definido de maneira ampla, de forma a englobar tanto os aspectos operacionais do aparelho do Estado aí incluídos os requisitos organizacionais e gerenciais bem como as suas dimensões institucionais, políticas e econômicas.

Baseando-se na capacidade do sistema político de identificar os problemas da sociedade, formular soluções por meio de políticas públicas e implementá-las, o termo proposto enfatiza a importante distinção analítica entre as duas fases do processo de decisão, indicando, ainda, o contexto mais ou menos democrático em que este se desenvolve.

Esse conceito operacional permite, assim, a análise da eficiência e eficácia do Estado em ajustar a economia, redefinir seu tamanho e suas funções, resgatar a dívida social e manterem-se em ambiente democrático, desafios impostos e assumidos por todos os governantes do Brasil pós-constituinte.

Dentre os vários aspectos considerados importantes para a capacidade governativa do Estado, destaco e examino, neste artigo, o processo de tomada de decisão, com ênfase na fase de formulação das políticas e nas relações Executivo-Legislativo.

Valendo-me dos resultados de dois estudos de caso de políticas fundamentais de agenda de governo, a política salarial e a política tributária e fiscal, contraponho-me à literatura que localiza o gargalo da capacidade governativa, basicamente, na implementação das políticas governamentais, aliás, plenamente reconhecidas, e a tese de Figueiredo e Limongi que argúi o predomínio quase absoluto do Executivo no processo legislativo e o conseqüente comportamento cooperativo do Congresso.

Para tanto, chamo a atenção para as grandes dificuldades da fase de formação das políticas indicadas, que são colocadas à conta da baixa institucionalização dos mecanismos de interação dos atores e de suas formas de representação de interesse, e dos obstáculos para a construção de maiorias estáveis no Parlamento. (pressupostos para a adoção de governabilidade de tendência autoritária)

De fato, neste último caso, a baixa institucionalização dos partidos, determinadas regras eleitoral-partidárias em um sistema multipartidário polarizado e altamente fragmentado, a forte presença de interesses suprapartidários, os constrangimentos eleitorais dos partidos e sua forma segmentada de comportamento (partidos que ocupam distintas posições no espectro ideológico negociando segundo diferentes moedas) dificultam a formação de coalizões de sustentação do governo, obrigando o Executivo a empenhar-se na construção de maiorias a cada votação. (paradoxos necessários da democracia multiculturalista, intransponíveis)

A combinação desses fatores faz ressaltar a importância, para a tomada de decisão, dos atributos pessoais das lideranças do governo e da oposição e mesmo da equipe econômica (forma de dominação carismática), de variáveis conjunturais em determinadas combinações e de mecanismos e procedimentos informais.

Para a discrepância desses resultados encontro as seguintes explicações.

No que se refere à tese de que o gargalo da capacidade governativa do Estado está basicamente na implementação, recorro à hipótese central de Lowi, que associa tipo de política a tipo de arena decisória.

Sugiro que relevante, nesse caso, é distinguir entre as políticas que passam pelo Congresso e aquelas que são produzidas em burocracias relativamente encapsuladas, e que os autores que abraçam a tese mencionada vêm trabalhando com políticas econômicas cujo processo de formação se desenvolve de acordo com a segunda modalidade.

No que se refere à tese de predomínio quase que absoluto do Executivo e de cooperação do Legislativo no processo legislativo propriamente dito, a diferença é metodológica.

Os estudos de caso indicados e o método indutivo permitem desentranhar relações no plano micro entre os atores, e, assim, detectar conflitos, negociações freqüentemente árduas e padrões de interação tanto de confronto como de cooperação envolvendo os dois Poderes.

Isso ocorre, mesmo que o tempo de tramitação dos projetos de lei não seja tão grande e que sua taxa de aprovação seja alta, como sugere a análise de dados agregados e o método hipotético-dedutivo utilizados pelos autores mencionados.

Dessa forma, se é verdade, no período pós-Constituinte, que o Executivo tem o domínio do processo legislativo, determina a agenda do Congresso e detém a iniciativa dos projetos relevantes para o reordenamento socioeconômico do país, não é menos verdade que é obrigado a negociar com o Congresso, muitas vezes arduamente, tendo, freqüentemente, de construir maiorias a cada votação.

Em outras palavras, o Executivo predomina, mas o Congresso não é de forma alguma irrelevante, e muito menos é cooperativo como regra geral. [36]

Em que circunstâncias e que variáveis explicam o estabelecimento de padrões de interação envolvendo os dois Poderes, de natureza quase sempre conflituosa, ou nem sempre cooperativa é uma questão empírica ainda incipientemente investigada. (para a conquista da hegemonia, o conceito de dominação deve ser considerado como alternativa ao autoritarismo e outras formas de persuasão nem tão republicanas)

Almeida (1996) chama a atenção para o grau de coincidência da distribuição de preferências dos parlamentares com a agenda reformista dos governos pós-1990.

O meu próprio trabalho enfatiza a importância de variáveis conjunturais em determinada combinação, incluindo-se aí os atributos das lideranças do governo, da oposição e até mesmo da equipe econômica.

É razoável supor também que quanto maiores e mais diversificados os interesses envolvidos, e quanto maior a importância estratégica dos atores em jogo o que varia com a questões da área em foco menores são as chances de que se estabeleçam padrões de interação de natureza cooperativa entre o Executivo e o Legislativo.

Em resumo, no que se refere às políticas de ajuste de item da pauta de todos os governos pós-Constituinte, se sua deficiência de implementação é reconhecida, o processo de formulação das políticas que passam pelo crivo do Congresso é freqüentemente complexo e difícil. (sem a dominação a conquista da hegemonia tende para a única alternativa à democracia: a tirania)

Por outro lado, se boa parte das políticas de estabilização são, basicamente, formuladas na relativa clausura (autoritária) das burocracias governamentais, as reformas estruturais, segunda fase do programa de ajuste, são todas submetidas ao Legislativo, até porque dependem, em parte, de reforma constitucional, o que, necessariamente, pelas dificuldades descritas de negociação entre os dois Poderes, prolonga o tempo do processo de formulação das reformas estruturais, tão ansiosamente perseguidas pelos governos pós-1990.

Estamos falando, portanto, de um padrão dual do processo de tomada de decisão.

Aqui o dilema do governante parece ser o seguinte. Para empreender as reformas estruturais deve ele manter o processo de decisão o mais aberto possível, passando pelo aval do Congresso Nacional, e, portanto, tornando-o visível aos olhos públicos, e dessa forma submetendo-o às mais fortes e diversificadas pressões dos grupos sociais, às interferências do Judiciário, dos governadores de estado, sem falar das custosas negociações com partidos e líderes da oposição, quando não com a própria bancada governista.

Afinal, como diz Reis,

"[...] a democracia envolve, antes, por definição, a problematização do processo de fixação dos fins da ação do Estado, com o reconhecimento de que há fins diversos e às vezes divergentes ou mesmo conflitantes (em correspondência com a multiplicidade dos interesses de que são portadores os diferentes grupos e categorias da sociedade) e de que é preciso tratar de agregar fins múltiplos, se possível compatibilizá-los por meio de negociações, definir prioridades com recurso a procedimentos que venham a ser percebidos como legítimos etc". (1995:126, ênfase no original).

Ou deve o governante, para garantir maior rapidez na implantação das reformas estruturais, encapsular, sempre que possível e o máximo possível, sua fase de formulação nas burocracias, à semelhança do que ocorre com as políticas monetárias e cambiais?

Nesse caso, não se estará abrindo mão dos princípios democráticos outro dos pressupostos dos políticos e da grande maioria dos cidadãos e acadêmicos do país? (princípio do autoritarismo)

Até que ponto a escolha da arena decisória é prerrogativa do governante?

Que constrangimentos internos ou externos, institucionais, políticos ou econômicos conformam essa escolha?

Mais importante ainda: será possível a convivência, em longo prazo, entre democracia e um padrão dual de tomada de decisão, pelas quais certas políticas têm como locus de decisão a relativa clausura (autoritarismo) das burocracias, enquanto outras se concentram no Parlamento?

E o que dizer do resgate da dívida social?

É possível conter seu potencial desestabilizador segundo a percepção de alguns, ou promover a justiça social conforme os princípios de outros, sob o imperativo da lógica econômica?

É possível construir democracia política sem democracia social? Afinal, de que democracia estamos falando? Malloy prevê:

"Na década de 90, a América Latina será o cenário da criatividade política, na medida em que esses países busquem reconciliar os impulsos contraditórios que os sacodem. O resultado mais provável será o surgimento de novos regimes híbridos, nos quais os elementos de estilo autoritário de política serão fundidos com processos eleitorais democráticos. Nesses híbridos, a questão crucial será a de como as expressões organizadas da sociedade civil serão ou não integradas ao processo de governo e de elaboração de políticas públicas, e qual o papel que os partidos políticos desempenharão enquanto mediadores desse tipo de articulação" (1993:126).

O’Donnell (1993; 1994; 1996), igualmente preocupado com as novas poliarquias, propõe, tomando como referencial empírico a América Latina, o termo "democracia delegativa" para caracterizar um novo tipo de democracia, que se distingue das democracias representativas mais antigas.

As democracias delegativas, sugere o autor, pressupõem a concepção cesarista e plebiscitária de um presidente eleito que se percebe investido do poder de governar o país da forma como lhe aprouver, constrangido apenas pelas relações de poder existentes e o tempo constitucionalmente limitado de seu mandato.

Nas novas poliarquias latino-americanas, continua o autor, não há ausência de institucionalização.

Na verdade, essas poliarquias combinam eleições livres, competitivas e formalmente institucionalizadas com instituições políticas não formalizadas, com destaque para o clientelismo e, de forma mais ampla, o particularismo-patrimonial (no qual não há distinção comportamental, legal e normativa entre as esferas pública e privada).

As afinidades eletivas entre o particularismo-patrimonial, a reduzida "prestação de contas horizontal" (entre as agências públicas), a pouca transparência dos processos de tomada de decisão das políticas governamentais, a grande distância entre as normas formais e o funcionamento efetivo da maioria das instituições políticas e as concepções e práticas delegativas e não representativas de autoridade política terminam por reviver e acentuar características do autoritarismo.

Embora se distingam de várias maneiras, as concepções de O’Donnell e Malloy acerca das novas democracias latino-americanas apontam, em comum, para regimes políticos que combinam eleições democráticas institucionalizadas e práticas autoritárias.

Esses regimes híbridos, parece óbvio, guardam afinidade eletiva com o padrão de decisão dual descrito acima.

Nesse contexto, as relações Executivo-Legislativo tornam-se cruciais.

Um padrão freqüentemente conflituoso entre os dois Poderes como arguido aqui tenderá a reforçar as arenas decisórias localizadas em burocracias relativamente encapsuladas em detrimento do Parlamento, com conseqüências óbvias para os rumos da democracia em construção.

Serão os regimes híbridos de Malloy a solução?
Será a democracia delegativa de O’Donnell a única possível?
O padrão de decisão das políticas governamentais será basicamente dual?
Estaremos dispostos a abrir mão dos mecanismos democráticos clássicos?
E como acomodaremos o particularismo-patrimonialista de nosso contexto histórico-cultural?
Que democracia poderemos ou estaremos dispostos a construir?

De qualquer forma, o desafio de ajustar a economia aos pressupostos de resgate da dívida social em contexto democrático constitui-se, para todos os que não estão dispostos a abrir mão desses pressupostos normativos, em formidável desafio para a presente e futuras gerações do país, dos países latino-americanos e dos países emergentes de uma maneira geral.

CONCLUSÕES:

O processo democrático esconde uma grande dificuldade, na verdade, um dilema paradoxal instransponível, porque é antagônico, antinômico, antitético, dialético.

Para transcender-se ao processo dialético há que se seguir a regra do método de Hieráclito, o qual seria fundir-se a tese à antítese, gerando o novo que seria a nova síntese haurida de elementos tanto da tese quanto da antítese.

A democracia, como um processo político, exige a existência de parceiros homogêneos na divisão do poder. Halmilton chamou este processo de governabilidade de Checks and Balances, ou seja: os três poderes seriam autônomos, equilibrados e interligados de maneira que cada qual pudesse controlar-se e fiscalizarem-se uns aos outros.

Ora, se isso acontecer, o executivo perde parte de sua governabilidade, pois que para cada passo e decisão implementada teria os seus empreendimentos checados, verificados, fiscalizados e ponderados pelos seus parceiros de divisão de poder.

Isso tem obrigado o executivo a fazer diversas manobras táticas, algumas delas legais, outras ilegais, imorais e desleais, tais como:

A) Cooptação;
B) Suborno;
C) Pressão;
D) Barganha;
E) Ameaças;
F) Chantagens;
G) Trocas de favores;
H) Persuasão;
I) Recrutamento de seguidores;
J) Disputas em geral.

Tudo isso pode, no mínimo, destruir o desejado equilíbrio hamiltoniano democrático, assim, o processo, democrático ele mesmo, é a maior causa da ingovernabilidade. Daí o paradoxo da democracia.

Se as instituições democráticas funcionarem a pleno acabam inviabilizando o executivo.

O remédio para os problemas da democracia é a ditadura. Pelo menos recorre-se constantemente às medidas antidemocráticas como, por exemplo, os decretos-leis, medidas provisórias, encapsulamento todas as vezes que se quer resolver uma crise ou dotar o sistema político de meios mais governáveis. A tirania é a mais eficiente forma e instrumento de governabilidade nas crises.

Formas de dominação, segundo Max Weber

Para mim, este é o conceito mais completo sobre política. Sem a dominação não se obtém a legitimidade para estabelecer a hegemonia, quer seja do chefe em uma instituição sobre os seus subordinados, quer seja em uma penitenciária, seja em Guantánamo ou em Bangú, quer seja de uma tirania seja de Sadan Hussein ou dos comandantes das FARC, enfim para se conseguir a obediência há que se conseguir a dominação, que é a força capaz de obter a subordinação da vontade em obedecer.

Em uma tirania pode-se conviver durante muito tempo com as revoltas e tentativas de golpes, ou pode-se obter a obediência direta, sob coação e coerção, mas nada garante a continuidade deste processo, e os custos crescentes diretos e indiretos para se mantê-lo.

É neste ponto que se estabelece a única vantagem da democracia e do liberalismo. Existe um pacto de obediência compulsória e de adesão voluntária ao dirigente escolhido por um processo que Weber chamou de dominação, o qual tende a ser do tipo dominação racional-legal.

Pode existir outras variantes de dominação também democráticas ou toleradas em uma democracia como aquelas dominações provenientes do carisma e da tradição. Acrescentaria também a dominação meritocrática a qual deriva do conhecimento especializado, a dominação consensual a qual derivaria das relações sentimentais, e a dominação formal baseada na posição midiática conferida pelas celebridades de todo o gênero.

A democracia moderna depende da aceitação por parte da maioria que se transforma, segundo Rousseau, na vontade-geral através do artifício da legitimação pelo procedimento legal, as eleições, aceito formalmente pelos aderentes do contrato social que abrange a todos e não exclui ninguém (Rousseau).

A democracia precisa de um processo plebiscitário que não implica de modo algum em garantia da melhor escolha, não é este o seu objetivo, senão subordinar o resultado à legitimação do escolhido e ungido pela escolha da maioria. Nós sabemos como a maioria quase sempre está longe da informação, da qualidade e do conhecimento especializado.

Este é o enorme defeito da democracia: mais popular, eleitoreira, e menos perto da meritocracia.

A prática política tem apontado que o remédio para uma democracia claudicante ou em crise tem sido a tirania, mesmo que provisória e temporária. A democracia tem se valido da tirania para consertar os seus males.

O remédio da democracia é a ditadura.

Gostou do Blog O blog lhe foi útil Colabore para o autor Faça doações de valores A partir de US $ 1,00 Do you like this blog Is it useful to you donate from US $ 1,00 Bank Santander number 033 Brazil Agency 2139 Current 01014014-4 Bank of Brazil Agency 5197-7 Acount 257 333-4 Ditadura sem dominação não tem sustentabilidade, daí o caráter plebiscitário e popularesco da legitimação do processo eleitoral que conduz à governabilidade democrática, e sem poder sair deste círculo vicioso a democracia persegue dialeticamente seu ideal de estabilidade num devir contínuo, turbulento e eterno.

terça-feira, 27 de dezembro de 2011

O Gato de Schrödinger: o que é o TEMPO.

disponivel na AMAZON.COM livros de autoria de prof Msc Roberto da Silva Rocha Roberto da Silva Rocha, professor universitário e cientista político

TEMPO
Revisão da Bibliografia

A ciência da Física é a Ciência do tempo. Sem a variável tempo escalar não é possível a existência da ciência da Física. A entropia representa bem a sua importância dado que o tempo representa a circularidade da eterna transição da matéria se convertendo em energia e vice versa num ciclo eteterno ongularidade do universo primordial. A Mecânica quântica é a teoria física que obtém sucesso no estudo dos sistemas físicos cujas dimensões são próximas ou abaixo da escala atômica, tais como moléculas, átomos, elétrons, prótons e de outras partículas subatômicas, muito embora também possa descrever fenômenos macroscópicos em diversos casos. A Mecânica Quântica é um ramo fundamental da física com vasta aplicação.
A teoria quântica fornece descrições precisas para muitos fenômenos previamente inexplicados tais como a radiação de corpo negro e as órbitas estáveis do elétron.
Apesar de na maioria dos casos a Mecânica Quântica ser relevante para descrever sistemas microscópicos, os seus efeitos específicos não são somente perceptíveis em tal escala. Por exemplo, a explicação de fenômenos macroscópicos como a super fluidez e a supercondutividade só é possível se considerarmos que o comportamento microscópico da matéria é quântico.
A quantidade característica da teoria, que determina quando ela é necessária para a descrição de um fenômeno, é a chamada constante de Planck, que tem dimensão de momento angular ou, equivalentemente, de ação.
A mecânica quântica recebe esse nome por prever um fenômeno bastante conhecido dos físicos: a quantização. No caso dos estados ligados (por exemplo, um elétron orbitando em torno de um núcleo positivo) a Mecânica Quântica prevê que a energia (do elétron) deve ser quantizada. Este fenômeno é completamente alheio ao que prevê a teoria clássica.
A palavra “quântica” (do Latim, quantum) quer dizer quantidade. Na mecânica quântica, esta palavra refere-se a uma unidade discreta que a teoria quântica atribui a certas quantidades físicas, como a energia de um elétron contido num átomo em repouso. A descoberta de que as ondas eletromagnéticas podem ser explicadas como uma emissão de pacotes de energia (chamados quanta) conduziu ao ramo da ciência que lida com sistemas moleculares,atômicos e subatômicos. Este ramo da ciência é atualmente conhecido como mecânica quântica.
A mecânica quântica é a base teórica e experimental de vários campos da Física e da Química, incluindo a física da matéria condensada, física do estado sólido, física atômica, física molecular, química computacional, química quântica, física de partículas, e física nuclear.
Os alicerces da mecânica quântica foram estabelecidos durante a primeira metade do século XX por Albert Einstein, Werner Heisenberg, Max Planck, Louis de Broglie, Niels Bohr, Erwin Schrödinger, Max Born, John von Neumann, Paul Dirac, Wolfgang Pauli, Richard Feynman e outros. Alguns aspectos fundamentais da contribuição desses autores ainda são alvo de investigação.
Normalmente é necessário utilizar a mecânica quântica para compreender o comportamento de sistemas em escala atômica ou molecular. Por exemplo, se a mecânica clássica governasse o funcionamento de um átomo, o modelo planetário do átomo – proposto pela primeira vez por Rutherford – seria um modelo completamente instável. Segundo a teoria eletromagnética clássica, toda a carga elétrica acelerada emite radiação. Por outro lado, o processo de emissão de radiação consome a energia da partícula. Dessa forma, o elétron, enquanto caminha na sua órbita, perderia energia continuamente até colapsar contra o núcleo positivo!
Em física, chama-se "sistema" um fragmento concreto da realidade que foi separado para estudo. Dependendo do caso, a palavra sistema refere-se a um elétron ou um próton, um pequeno átomo de hidrogênio ou um grande átomo de urânio, uma molécula isolada ou um conjunto de moléculas interagentes formando um sólido ou um vapor. Em todos os casos, sistema é um fragmento da realidade concreta para o qual deseja-se chamar atenção.
Dependendo da partícula pode-se inverter polarizações subsequentes de aspecto neutro.
A especificação de um sistema físico não determina unicamente os valores que experimentos fornecem para as suas propriedades (ou as probabilidades de se medirem tais valores, em se tratando de teorias probabilísticas).
Além disso, os sistemas físicos não são estáticos, eles evoluem com o tempo, de modo que o mesmo sistema, preparado da mesma forma, pode dar origem a resultados experimentais diferentes dependendo do tempo em que se realiza a medida (ou a histogramas diferentes, no caso de teorias probabilísticas).
Essa idéia conduz a outro conceito-chave: o conceito de "estado". Um estado é uma quantidade matemática (que varia de acordo com a teoria) que determina completamente os valores das propriedades físicas do sistema associadas a ele num dado instante de tempo (ou as probabilidades de cada um de seus valores possíveis serem medidos, quando se trata de uma teoria probabilística). Em outras palavras, todas as informações possíveis de se conhecer em um dado sistema constituem seu estado
Cada sistema ocupa um estado num instante no tempo e as leis da física devem ser capazes de descrever como um dado sistema parte de um estado e chega a outro. Em outras palavras, as leis da física devem dizer como o sistema evolui (de estado em estado).
Muitas variáveis que ficam bem determinadas na mecânica clássica são substituídas por distribuições de probabilidades na mecânica quântica, que é uma teoria intrinsecamente probabilística (isto é, dispõe-se apenas de probabilidades não por uma simplificação ou ignorância, mas porque isso é tudo que a teoria é capaz de fornecer).
No formalismo da mecânica quântica, o estado de um sistema num dado instante de tempo pode ser representado de duas formas principais:
O estado é representado por uma função complexa das posições ou dos momenta de cada partícula que compõe o sistema. Essa representação é chamada função de onda.
Também é possível representar o estado por um vetor num espaço vetorial complexo.[1] Esta representação do estado quântico é chamada vetor de estado. Devido à notação introduzida por Paul Dirac, tais vetores são usualmente chamados kets (sing.: ket).
Em suma, tanto as "funções de onda" quanto os "vetores de estado" (ou kets) representam os estados de um dado sistema físico de forma completa e equivalente e as leis da mecânica quântica descrevem como vetores de estado e funções de onda evoluem no tempo.
Estes objetos matemáticos abstratos (kets e funções de onda) permitem o cálculo da probabilidade de se obter resultados específicos em um experimento concreto. Por exemplo, o formalismo da mecânica quântica permite que se calcule a probabilidade de encontrar um elétron em uma região particular em torno do núcleo.
Para compreender seriamente o cálculo das probabilidades a partir da informação representada nos vetores de estado e funções de onda é preciso dominar alguns fundamentos de álgebra linear.
É impossível falar seriamente sobre mecânica quântica sem fazer alguns apontamentos matemáticos. Isso porque muitos fenômenos quânticos difíceis de se imaginar concretamente podem ser representados sem mais complicações com um pouco de abstração matemática.
Há três conceitos fundamentais da matemática - mais especificamente da álgebra linear - que são empregados constantemente pela mecânica quântica. São estes: (1) o conceito de operador; (2) de autovetor; e (3) de autovalor.
Um operador é um ente matemático que estabelece uma relação funcional entre dois espaços vetoriais. A relação funcional que um operador estabelece pode ser chamada transformação linear.
Do ponto de vista teórico, a semente da ruptura entre as física quântica e clássica está no emprego dos operadores. Na mecânica clássica, é usual descrever o movimento de uma partícula com uma função escalar do tempo. Por exemplo, imagine que vemos um vaso de flor caindo de uma janela. Em cada instante de tempo podemos calcular a que altura se encontra o vaso. Em outras palavras, descrevemos a grandeza posição com um número (escalar) que varia em função do tempo.
Uma característica distintiva na mecânica quântica é o uso de operadores para representar grandezas físicas. Ou seja, não são somente as rotações e translações que podem ser representadas por operadores. Na mecânica quântica grandezas como posição, momento linear, momento angular e energia também são representados por operadores.
Até este ponto já é possível perceber que a mecânica quântica descreve a natureza de forma bastante abstrata. Em suma, os estados que um sistema físico pode ocupar são representados por vetores de estado (kets) ou funções de onda (que também são vetores, só que no espaço das funções). As grandezas físicas não são representadas diretamente por escalares (como 10 m, por exemplo), mas por operadores.
Em primeiro lugar, considere o operador  de uma transformação linear arbitrária que relacione vetores de um espaço E com vetores do mesmo espaço E. Neste caso, escreve-se [eq.01]:
Observe que qualquer matriz quadrada satisfaz a condição imposta acima desde que os vetores no espaço E possam ser representados como matrizes-coluna e que a atuação de  sobre os vetores de E ocorra conforme o produto de matrizes.
Como foi dito, a equação ilustra muito bem a atuação de um operador do tipo definido em [eq.01]. Porém, é possível representar a mesma idéia de forma mais compacta e geral sem fazer referência à representação matricial dos operadores lineares [eq.02]:
Para cada operador  existe um conjunto tal que cada vetor do conjunto satisfaz [eq.03]:
A equação é chamada equação de autovalor e autovetor. Os vetores do conjunto são chamados autovetores. Os escalares do conjunto são chamados autovalores. O conjunto dos autovalores λi também é chamado espectro do operador Â.
Para cada autovalor corresponde um autovetor e o número de pares autovalor-autovetor é igual à dimensão do espaço E onde o operador  está definido. Em geral, o espectro de um operador  qualquer não é contínuo, mas discreto. Encontrar os autovetores e autovalores para um dado operador  é o chamado problema de autovalor e autovetor.
De antemão o problema de autovalor e autovetor possui duas características:
(1) satisfaz o problema para qualquer operador Â. Por isso, o vetor nulo não é considerado uma resposta do problema.
(2) Se satisfaz a equação de autovalor e autovetor, então seu múltiplo também é uma resposta ao problema para qualquer.
Enfim, a solução geral do problema de autovalor e autovetor é bastante simples. A saber:
Como não pode ser considerado uma solução do problema, é necessário que:
A equação é um polinômio de grau n. Portanto, para qualquer operador há n quantidades escalares distintas ou não tais que a equação de autovetor e autovalor é satisfeita.
Os autovetores correspondentes aos autovalores de um operador  podem ser obtidos facilmente substituindo os autovalores um a um na [eq.03].
Para compreender o significado físico de toda essa representação matemática abstrata, considere o exemplo do operador de Spin na direção z: .
Na mecânica quântica, cada partícula tem associada a si uma quantidade sem análogo clássico chamada spin ou momento angular intrínseco. O spin de uma partícula é representado como um vetor com projeções nos eixos x, y e z. A cada projeção do vetor spin : corresponde um operador:
O operador é geralmente representado da seguinte forma:
É possível resolver o problema de autovetor e autovalor para o operador: são os autovalores.
A história da mecânica quântica começou essencialmente em 1838 com a descoberta dos raios catódicos por Michael Faraday, a enunciação em 1859 do problema da radiação de corpo negro por Gustavo Kirchhoff, a sugestão 1877 por Ludwig Boltzmann que os estados de energia de um sistema físico poderiam ser discretos, e a hipótese por Planck em 1900 de que toda a energia é irradiada e absorvida na forma de elementos discretos chamados quanta.
Segundo Planck, cada um desses quanta tem energia proporcional à frequência ν da radiação eletromagnética emitida ou absorvida.
Planck insistiu que este foi apenas um aspecto dos processos de absorção e emissão de radiação e não tinha nada a ver com a realidade física da radiação em si.[2] No entanto, naquele tempo isso parecia não explicar o efeito fotoelétrico (1839), ou seja, que a luz brilhante em certos materiais pode ejetar elétrons do material.
Em 1905, baseando seu trabalho na hipótese quântica de Planck, Albert Einstein postulou que a própria luz é formada por quanta individuais.[3]
Em meados da década de 1920, a evolução da mecânica quântica rapidamente fez com que ela se tornasse a formulação padrão para a física atômica.
No verão de 1925, Bohr e Heisenberg publicaram resultados que fechavam a "Antiga teoria quântica". Quanta de luz vieram a ser chamados fótons (1926).
Da simples postulação de Einstein nasceu uma enxurrada de debates, teorias e testes e, então, todo o campo da física quântica, levando à sua maior aceitação na quinta Conferência de Solvay em 1927.
Na mecânica quântica, o estado de um sistema físico é definido pelo conjunto de todas as informações que podem ser extraídas desse sistema ao se efetuar alguma medida.
Na mecânica quântica, todos os estados são representados por vetores em um espaço vetorial complexo: o Espaço de Hilbert H. Assim, cada vetor no espaço H representa um estado que poderia ser ocupado pelo sistema.
Portanto, dados dois estados quaisquer, a soma algébrica (superposição) deles também é um estado.
Como a norma dos vetores de estado não possui significado físico, todos os vetores de estado são preferencialmente normalizados.
Na notação de Dirac, os vetores de estado são chamados "Kets" e são representados como aparece a seguir:
Usualmente, na matemática, são chamados funcionais todas as funções lineares que associam vetores de um espaço vetorial qualquer a um escalar. É sabido que os funcionais dos vetores de um espaço também formam um espaço, que é chamado espaço dual.
Na notação de Dirac, os funcionais - elementos do Espaço Dual - são chamados "Bras" e são representados como aparece a seguir:
Segundo princípio:
Medida de grandezas físicas
a) Para toda grandeza física A é associado um operador linear auto-adjunto  pertencente a A:  é o observável (autovalor do operador) representando a grandeza A.
b) Seja o estado no qual o sistema se encontra no momento onde efetuamos a medida de A. Qualquer que seja , os únicos resultados possíveis são os autovalores de aα do observável Â.
c) Sendo o projetor sobre o subespaço associado ao valor próprio aα, a probablidade de encontrar o valor aα em uma medida de A é:
d) Imediatamente após uma medida de A, que resultou no valor aα, o novo estado do sistema é
Terceiro princípio:
Evolução do sistema
Seja o estado de um sistema ao instante t. Se o sistema não é submetido a nenhuma observação, sua evolução, ao longo do tempo, é regida pela equação de Schrödinger:
onde é o hamiltoniano do sistema.
As conclusões mais importantes são:
Em estados ligados, como o elétron girando ao redor do núcleo de um átomo, a energia não se troca de modo contínuo, mas sim de modo discreto (descontínuo), em transições cujas energias podem ou não ser iguais umas às outras.
A idéia de que estados ligados têm níveis de energias discretas é devida a Max Planck.
O fato de ser impossível atribuir ao mesmo tempo uma posição e um momento exatas a uma partícula, renunciando-se assim ao conceito de trajetória, vital em Mecânica Clássica.
Em vez de trajetória, o movimento de partículas em Mecânica Quântica é descrito por meio de uma função de onda, que é uma função da posição da partícula e do tempo.
A função de onda é interpretada por Max Born como uma medida da probabilidade de se encontrar a partícula em determinada posição e em determinado tempo.
Esta interpretação é a mais aceita pelos físicos hoje, no conjunto de atribuições da Mecânica Quântica regulamentados pela Escola de Copenhagen.
Para descrever a dinâmica de um sistema quântico deve-se, portanto, achar sua função de onda, e para este efeito usam-se as equações de movimento, propostas por Werner Heisenberg e Erwin Schrödinger independentemente.
Apesar de ter sua estrutura formal basicamente pronta desde a década de 1930, a interpretação da Mecânica Quântica foi objeto de estudos por várias décadas. O principal é o problema da medição em Mecânica Quântica e sua relação com a não-localidade e causalidade.
Já em 1935, Einstein, Podolski e Rosen publicaram seu Gedankenexperiment, mostrando uma aparente contradição entre localidade e o processo de Medida em Mecânica Quântica.
Nos anos 60 J. S. Bell publicou uma série de relações que seriam respeitadas caso a localidade — ou pelo menos como a entendemos classicamente — ainda persistisse em sistemas quânticos.
Tais condições são chamadas desigualdades de Bell e foram testadas experimentalmente por Alain Aspect, P. Grangier, Jean Dalibard em favor da Mecânica Quântica.
Como seria de se esperar, tal interpretação ainda causa desconforto entre vários físicos, mas a grande parte da comunidade aceita que estados correlacionados podem violar causalidade desta forma.
Tal revisão radical do nosso conceito de realidade foi fundamentada em explicações teóricas brilhantes para resultados experimentais que não podiam ser descritos pela teoria clássica, e que incluem:
Espectro de Radiação do Corpo negro, resolvido por Max Planck com a proposição da quantização da energia.
Explicação do experimento da dupla fenda, no qual eléctrons produzem um padrão de interferência condizente com o comportamento ondular.
Explicação por Albert Einstein do efeito fotoelétrico descoberto por Heinrich Hertz, onde propõe que a luz também se propaga em quanta (pacotes de energia definida), os chamados fótons.
O Efeito Compton, no qual se propõe que os fótons podem se comportar como partículas, quando sua energia for grande o bastante.
A questão do calor específico de sólidos sob baixas temperaturas, cuja discrepância foi explicada pelas teorias de Einstein e de Debye, baseadas na equipartição de energia segundo a interpretação quantizada de Planck.
A absorção ressonante e discreta de energia por gases, provada no experimento de Franck-Hertz quando submetidos a certos valores de diferença de potencial elétrico.
A explicação da estabilidade atômica e da natureza discreta das raias espectrais, graças ao modelo do átomo de Bohr, que postulava a quantização dos níveis de energia do átomo.
O desenvolvimento formal da teoria foi obra de esforços conjuntos de muitos físicos e matemáticos da época como Erwin Schrödinger, Werner Heisenberg, Einstein, P.A.M. Dirac, Niels Bohr e John von Neumann, entre outros (de uma longa lista).
Referências
Greiner, Walter; Müller, Berndt (1994), Quantum Mechanics Symmetries, Second Edition, cap. 2,, Springer-Verlag, p. 52, ISBN 3-540-58080-8, http://books.google.com/books?id=gCfvWx6vuzUC&pg=PA52
T.S. Kuhn, Black-body theory and the quantum discontinuity 1894-1912, Clarendon Press, Oxford, 1978.
A. Einstein, Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt (Um ponto de vista heurístico a respeito da produção e transformação da luz), Annalen der Physik 17 (1905) 132-148 (reimpresso em The collected papers of Albert Einstein, John Stachel, editor, Princeton University Press, 1989, Vol. 2, pp. 149-166, em alemão; ver também Einstein's early work on the quantum hypothesis, ibid. pp. 134-148).
Bibliografia
Mehra, J.; Rechenberg, H.. The historical development of quantum theory (em inglês). [S.l.]: Springer-Verlag, 1982.
Kuhn, T.S.. Black-body theory and the quantum discontinuity 1894-1912 (em inglês). Oxford: Clarendon Press, 1978. Nota: O "Princípio da Incerteza" de Heisenberg é parte central dessa teoria e daí nasceu a famosa equação de densidade de probalidade de Schrödinger.

Paradoxo EPR



Polarizadores cruzados.
No primeiro caso, luz não polarizada é direcionada sobre dois polarizadores com eixos de polarização cruzados.
Nenhuma luz atravessa os dois.
Inserindo-se um terceiro polarizador com o eixo de polarização a 45º, o que obtém-se?
Com certas considerações, esta questão remete ao mesmo problema da realidade adjacente a um estado emaranhado na mecânica quântica.
Assumindo-se uma postura realista, não espera-se que luz atravessasse os três polarizadores.
Entretanto a experiência fornece resultado contraditório.
Na mecânica quântica, o paradoxo EPR ou Paradoxo de Einstein-Podolsky-Rosen é um experimento mental que questiona a natureza da previsão oriunda da teoria quântica de que o resultado de uma medição realizada em uma parte do sistema quântico pode ter um efeito instantâneo no resultado de uma medição realizada em outra parte, independentemente da distância que separa as duas partes.
A primeira vista isto vai de encontro aos princípios da relatividade especial, que estabelece que a informação não pode ser transmitida mais rapidamente que a velocidade da luz[Nota 1][1].

Estado Emartanhado

O EPR surgiu em meio a um contexto histórico onde buscava-se, em vista das predições da mecânica quântica, a compreensão da realidade adjacente a uma partícula descrita por um estado emaranhado.

Havia três correntes quanto à questão:

a) a realista, que dava existência real à partícula mesmo quando esta encontra-se descrita pelo estado emaranhado - imediatamente antes da realização de uma medida e do colapso da função de onda, portanto [Nota 2];

b) a ortodoxa, que afirmava não havia uma realidade adjacente ao estado emaranhado, estando a partícula simultaneamente em todos os estados do emaranhamento até o ato da medida - da redução da função de onda - que obrigava a partícula a "decidir-se" por um estado específico [Nota 3], e

c) a agnóstica, que recusava-se a apresentar uma resposta ao impasse [Nota 4] .

"EPR" vem das iniciais de Albert Einstein, Boris Podolsky, e Nathan Rosen, os três defensores do ponto de vista realista que apresentaram este experimento mental em um trabalho em 1935 no intuito de demonstrar que a mecânica quântica não é uma teoria física completa, faltando à função de onda que descreve o estado emaranhado o que eles chamaram de "variáveis ocultas" - com as quais seria possível restaurar-se a explicação estritamente realista que defendiam.

É algumas vezes denominado como paradoxo EPRB devido a David Bohm, que converteu o experimento mental inicial em algo próximo a um experimento viável.

O EPR é um paradoxo no seguinte sentido: tomando-se a mecânica quântica e a ela adicionando-se uma condição aparentemente razoável - tal como "localidade", "realismo" ou "inteireza" - presentes em outras teorias como a clássica ou relativística, obtém-se uma contradição.
Porém, a mecânica quântica por si só não apresenta nenhuma inconsistência interna, tão pouco deixa indícios de como estas poderiam sugerir; também não contradiz a teoria relativística ou mesmo a mecânica clássica; e mais, implica esta última no limite macroscópico - quando tem-se agregados de numerosas partículas.
Como um resultado de desenvolvimentos teóricos e experimentais seguintes ao trabalho original da EPR - a destacar o Teorema de Bell e os resultados experimentais oriundos da investigação deste - demonstrou-se que se a visão realista estivesse correta ela implicaria não apenas a mecânica quântica como uma teoria incompleta mas sim como um teoria completamente incorreta, e por outro lado, se a mecânica quântica estivesse correta, então nenhuma variável oculta seria capaz de salvar a teoria da não-localidade que Einstein considerava tão absurda. 

A visão Ortodoxa vence

Com a posição agnóstica inviabilizada, restava decidir-se pela posição realista ou ortodoxa.

Em vistas dos resultados experimentais oriundos, entre outros, de investigações quanto à desigualdade de Bell, a maioria dos físicos atuais concorda que o paradoxo EPR é decidido a favor de que tanto a mecânica quântica quanto a essência da natureza em si estão além dos limites da Física Clássica e da Relatividade Restrita; e não a favor de que teoria quântica seja uma teoria incompleta, falha ou mesmo incompatível com a descrição da natureza em sua essência mais profunda.
Os dados experimentais até o momento decidem a favor da compreensão ortodoxa do estado emaranhado (a chamada interpretação de Copenhagen), portanto.
Razoável esforço da comunidade de físicos tem sido despendido desde então no intuito de elaborar-se uma teoria quanto-relativística que possibilite uma descrição mais acurada da natureza do que a fornecida pelas duas teorias quando em suas formas independentes.

Descrição do paradoxo - interpretação de Copenhagen

O paradoxo EPR apóia-se nos postulados da relatividade e em um fenômeno predito pela mecânica quântica e conhecido como entrelaçamento quântico, que mostra que medições realizadas em partes separadas de um sistema quântico influenciam-se mutuamente. Este efeito é atualmente conhecido como "comportamento não local" (ou, coloquialmente, como "estranheza quântica"). De forma a ilustrar isto, considere a seguinte versão simplificada do experimento mental EPR devido a Bohm.

Medições em um estado de entrelaçamento

Tem-se uma fonte emissora de pares de elétrons, com um elétron enviado para o destino A, onde existe uma observadora chamada Alice, e outro enviado para o destino B, onde existe um observador chamado Bob. De acordo com a mecânica quântica, podemos arranjar nossa fonte de forma tal que cada par de elétrons emitido ocupe um estado quântico conhecido como spin singlet.
Isto pode ser visto como uma superposição quântica de dois estados; sejam eles I e II. No estado I, o elétron A tem spin apontado para cima ao longo do eixo z (+z) e o elétron B tem seu spin apontando para baixo ao longo do mesmo eixo (-z).
No estado II, o elétron A tem spin -z e o elétron B, +z. Portanto, é impossível associar qualquer um dos elétrons em um spin singlet, com um estado definido de spin. Os elétrons estão, portanto, no chamado entrelaçamento.
Alice mede neste momento o spin no eixo z. Ela pode obter duas possíveis respostas: +z ou -z. Suponha que ela obteve +z. De acordo com a mecânica quântica, o estado quântico do sistema colapsou para o estado I. (Diferentes interpretações da mecânica quântica têm diferentes formas de dizer isto, mas o resultado básico é o mesmo).
O estado quântico determina a probabilidade das respostas de qualquer medição realizada no sistema. Neste caso, se Bob a seguir medir o spin no eixo z, ele obterá -z com 100% de certeza. Similarmente, se Alice obtiver -z, Bob terá +z.
Não há, certamente, nada de especial quanto à escolha do eixo z.
Por exemplo, suponha que Alice e Bob agora decidam medir o spin no eixo x. De acordo com a mecânica quântica, o estado do spin singlet deve estar exprimido igualmente bem como uma superposição dos estados de spin orientados na direção x.
Chamemos tais estados de Ia e IIa. No estado Ia, o elétron de Alice tem o spin +x e o de Bob, -x.
No estado IIa, o elétron de Alice tem spin -x e o de Bob, +x. Portanto, se Alice mede +x, o sistema colapsa para Ia e Bob obterá -x. Por outro lado, se Alice medir -x, o sistema colapsa para IIa e Bob obterá +x.
Em mecânica quântica, o spin x e o spin z são "observáveis incompatíveis", que significa que há um principio da incerteza de Heisenberg operando entre eles: um estado quântico não pode possuir um valor definido para ambas as variáveis.
Suponha que Alice meça o spin z e obtenha +z, com o estado quântico colapsando para o estado I. Agora, ao invés de medir o spin z também, suponha que Bob meça o spin x.
De acordo com a mecânica quântica, quando o sistema está no estado I, a medição do spin x de Bob terá uma probabilidade de 50% de produzir +x e 50% de -x.
Além disso, é fundamentalmente impossível predizer qual resultado será obtido até o momento que Bob realize a medição.
Incidentalmente, embora tenhamos usado o spin como exemplo, muitos tipos de quantidades físicas — que a mecânica quântica denomina como "observáveis" — podem ser usados para produzir entrelaçamento quântico.
O artigo original de EPR usou o momento como observável. Experimentos atuais abordando o contexto de EPR frequentemente usam a polarização de fótons, porque são experiências mais fáceis de se preparar e medir.

Realidade e integridade

Introduziremos agora dois novos conceitos usados por Einstein, Podolsky, e Rosen, que são cruciais em seu ataque à mecânica quântica:

(i) os elementos da realidade física e
(ii) a integridade de uma teoria física.

Os autores não se referem diretamente ao significado filosófico de um "elemento da realidade física". Ao invés disso, assumem que se o valor de qualquer quantidade física de um sistema pode ser predito com absoluta certeza antes de se realizar uma medição ou, em outras palavras, perturbando-o, então tal valor corresponde a um elemento da realidade física.
Note que o oposto não é necessariamente verdadeiro; poderia haver outros caminhos para existir elementos da realidade física, mas isto não afeta o argumento.
A seguir, EPR definiu uma "teoria física completa" como aquela na qual cada elemento da realidade física tem relevância. O objetivo deste artigo era mostrar, usando estas duas definições, que a mecânica quântica não é uma teoria física completa.
Vejamos como estes conceitos se aplicam para o experimento mental acima. Suponha que Alice decida medir o valor do spin no eixo z (chamemo-no de spin z.) Depois de Alice realizar sua medição, o spin z do elétron de Bob é definitivamente conhecido, de forma que torna-se um elemento da realidade física.
De modo similar, se Alice decide medir o spin no eixo x, o spin x do elétron de Bob torna-se um elemento da realidade física logo após a medição por Alice.
Vimos que um estado quântico não pode possuir um valor definido para ambos eixos, x e z. Se a mecânica quântica é uma teoria física completa no sentido dado acima, os spin x e z não podem ser elementos da mesma realidade ao mesmo tempo.
Isto significa que a decisão de Alice — de escolher se faz a medição no eixo x ou z — tem um efeito instantâneo nos elementos da realidade física na localidade de Bob. Contudo, isto viola outro princípio, o da localidade.

Localidade no experimento EPR

O princípio da localidade estabelece que processos físicos ocorrendo em um determinado lugar não devem ter um efeito imediato em elementos da realidade em outro local. À primeira vista, isto parece ser uma presunção aceitável, já que parece ser uma conseqüência da relatividade especial, que estabelece que a informação nunca pode ser transmitida mais rapidamente que a velocidade da luz sem violar o princípio da causalidade. É uma crença geral que qualquer teoria que viole o princípio da causalidade deve possuir uma inconsistência interna.
Ou seja, a mecânica quântica viola o princípio da localidade, mas não o princípio da causalidade. A causalidade é preservada porque não há forma de Alice transmitir mensagens (isto é, informação) a Bob pela interferência na escolha do eixo.
Qualquer que seja o eixo que ela use, a probabilidade é de 50% de se obter "+" e 50% de se obter "-", de forma completamente aleatória; de acordo com a mecânica quântica, é fundamentalmente impossível para ela influenciar o resultado que ela obterá. Além disso, Bob é somente capaz de realizar sua medição uma única vez: há uma propriedade fundamental da mecânica quântica, conhecida como o "teorema anticlonagem", que torna impossível a Bob fazer um milhão de cópias do elétron por ele recebido, realizar uma medição de spin em cada elétron, e estudar a distribuição estatística dos resultados.
Portanto, na única medição que lhe é permitido fazer, há uma probabilidade de 50% de obter "+" e 50% de "-", independente se o eixo escolhido está alinhado de acordo com o de Alice.
Porém, o princípio da localidade apóia-se muito na intuição, e Einstein, Podolsky e Rosen não puderam abandoná-la. Einstein brincou, dizendo que as predições na mecânica quântica eram "estranhas ações a distância".
A conclusão que eles esboçaram era a de que a mecânica quântica não é uma teoria completa.
Deve-se notar que a palavra localidade tem vários significados na Física.
Por exemplo, na teoria quântica de campo, "localidade" significa que os campos quânticos em diferentes pontos no espaço não interagem entre si. Porém, teorias de campo quântico que são "locais" neste sentido violam o princípio da localidade como definido por EPR.

Resolvendo o paradoxo

Variáveis ocultas

Há vários possíveis caminhos para se resolver o paradoxo EPR.
Um deles, sugerido por EPR, é que a mecânica quântica, a despeito do seu sucesso em uma ampla variedade de contextos experimentais, é ainda uma teoria incompleta.
Em outras palavras, há ainda uma teoria natural a ser desvendada, à qual a mecânica quântica age no papel de uma aproximação estatística (uma excelente aproximação, sem dúvida).
Diferentemente da mecânica quântica, esta teoria mais completa conteria variáveis correspondentes a todos os "elementos da realidade".
Deve haver algum mecanismo desconhecido atuando nestas variáveis de modo a ocasionar os efeitos observados de "não-comutação dos observáveis quânticos", isto é, o princípio da incerteza de Heisenberg. Tal teoria é conhecida como teoria das variáveis ocultas.
Para ilustrar esta idéia, podemos formular uma teoria de variável oculta bem simples para o experimento mental anterior.
Supõe-se que o estado do spin singlet emitido pela fonte é na verdade uma descrição aproximada do "verdadeiro" estado físico, com valores definidos para o spin z e o spin x. Neste estado "verdadeiro", o elétron que vai para Bob sempre tem valor de spin oposto ao do elétron que vai para Alice, mas, por outro lado, os valores são completamente aleatórios.
Por exemplo, o primeiro par emitido pela fonte poderia ser "(+z, -x) para Alice e (-z, +x) para Bob", o próximo par "(-z, -x) para Alice e (+z, +x) para Bob", e assim por diante.
Dessa forma, se o eixo de medição de Bob estiver alinhado com o de Alice, ele necessariamente obterá sempre o oposto daquilo que Alice obtiver; por outro lado, ele terá "+" e "-" com a mesma probabilidade.
Assumindo que restrinjamo-nos a medir nos eixos z e x, a teoria de variáveis ocultas é experimentalmente indistinguível da mecânica quântica.
Na realidade, certamente, há um (incontável) número de eixos nos quais Alice e Bob podem realizar suas medições, de forma que haverá infinito número de variáveis ocultas independentes! Contudo, isto não é um problema sério; apenas formulamos uma teoria de variáveis ocultas muito simplista; uma teoria mais sofisticada poderia "consertá-la". Ou seja, ainda há um grande desafio por vir à idéia de variáveis ocultas.

Desigualdade de Bell

Em 1964, John Bell mostrou que as predições da mecânica quântica no experimento mental de EPR são sempre ligeiramente diferentes das predições de uma grande parte das teorias de variáveis ocultas. Grosseiramente falando, a mecânica quântica prediz uma correlação estatística ligeiramente mais forte entre os resultados obtidos em diferentes eixos do que o obtido pelas teorias de variáveis ocultas.
Estas diferenças, expressas através de relações de desigualdades conhecidas como "desigualdades de Bell", são em princípio detectáveis experimentalmente. Para uma análise mais detalhada deste estudo, veja teorema de Bell.
Depois da publicação do trabalho de Bell, inúmeros experimentos foram idealizados para testar as desigualdades de Bell. (Como mencionado acima, estes experimentos geralmente baseiam-se na medição da polarização de fótons). Todos os experimentos feitos até hoje encontraram comportamento similar às predições obtidas da mecânica quântica padrão.
Porém, este campo ainda não está completamente definido. Antes de mais nada, o teorema de Bell não se aplica a todas as possíveis teorias "realistas". É possível construir uma teoria que escape de suas implicações e que são, portanto, indistinguíveis da mecânica quântica; porém, estas teorias são geralmente não-locais — parecem violar a casualidade e as regras da relatividade especial.
Alguns estudiosos neste campo têm tentado formular teorias de variáveis ocultas que exploram brechas nos experimentos atuais, tais como brechas nas hipóteses feitas para a interpretação dos dados experimentais. Todavia, ninguém ainda conseguiu formular uma teoria realista localmente que possa reproduzir todos os resultados da mecânica quântica.
Implicações para a mecânica quântica
A maioria dos físicos atualmente acredita que a mecânica quântica é correta, e que o paradoxo EPR é somente um "paradoxo" porque a intuição clássica não corresponde à realidade física.
Várias conclusões diferentes podem ser esboçadas a partir desta, dependendo de qual interpretação de mecânica quântica se use.
Na velha interpretação de Copenhague, conclui-se que o principio da localidade não se aplica e que realmente ocorrem colapsos da função de onda.
Na interpretação de muitos mundos, a localidade é preservada, e os efeitos da medição surgem da separação dos observadores em diferentes "históricos".
O paradoxo EPR aprofundou a nossa compreensão da mecânica quântica pela exposição de características não-clássicas do processo de medição.
Antes da publicação do paradoxo EPR, uma medição era freqüentemente visualizada como uma perturbação física que afetava diretamente o sistema sob medição.
Por exemplo, quando se media a posição de um elétron, imaginava-se o disparo de uma luz nele, que afetava o elétron e que produzia incertezas quanto a sua posição.
Tais explicações, que ainda são encontradas em explicações populares de mecânica quântica, foram revisadas pelo paradoxo EPR, o qual mostra que uma "medição" pode ser realizada em uma partícula sem perturbá-la diretamente, pela realização da medição em uma partícula entrelaçada distante.
Tecnologias baseadas no entrelaçamento quântico estão atualmente em desenvolvimento. Na criptografia quântica, partículas entrelaçadas são usadas para transmitir sinais que não podem ser vazados sem deixar traços.
Na computação quântica, partículas entrelaçadas são usadas para realizar cálculos em paralelo em computadores, o que permite que certos cálculos sejam realizados mais rapidamente do que um computador clássico jamais poderia fazer.
Notas
Em verdade a mecânica quântica não implica violação dos princípios da relatividade mesmo no caso do EPR visto que "Influências causais [subentendido aqui informação que estabeleça relação de causa e efeito, energia ou mesmo matéria] não podem propagar-se mais rápido que a velocidade da luz", mesmo no âmbito da mecânica quântica. Para maiores informações, vide: Griffith, David J. - Introduction to Quantum Mechanics - pág.: 381, entre outras.
Conforme Espagnant colocou: " a posição [no contexto o estado] da partícula nunca foi indeterminado, mas sim apenas desconhecido pelo experimentador."
Nas palavras de Jordan: "A observação não apenas distorce o que está a se medir, ela produz o que se está a medir... Nós compelimos a partícula a assumir uma posição definitiva [entende-se no contexto um estado específico do emaranhamento]."
Nas palavras de Pauli: "Não se deve queimar a cabeça se algo sobre o qual não se pode saber nada a respeito existe sempre." Para maiores detalhes quanto às citações consulte: Griffith, David J. - Introduction to Quantum Mechanics -pág.: 4, entre outras.
Referências
Griffitsh, David J. - Introduction to Quantum Mechanics - Printice Hall - 1994 - ISBN 0-13-124405-1.
Bibliografia seleccionada
A. Aspect, Bell's inequality test: more ideal than ever, Nature 398 189 (1999). [1]
J.S. Bell On the Einstein-Poldolsky-Rosen paradox, Physics 1 195 (1964).
J.S. Bell, Bertlmann's Socks and the Nature of Reality. Journal de Physique 42 (1981).
P.H. Eberhard, Bell's theorem without hidden variables. Nuovo Cimento 38B1 75 (1977).
P.H. Eberhard, Bell's theorem and the different concepts of locality. Nuovo Cimento 46B 392 (1978).
A. Einstein, B. Podolsky, and N. Rosen, Can quantum-mechanical description of physical reality be considered complete? Phys. Rev. 47 777 (1935). [2]
A. Fine, Hidden Variables, Joint Probability, and the Bell Inequalities. Phys. Rev. Lett 48, 291 (1982).
A. Fine, Do Correlations need to be explained?, in Philosophical Consequences of Quantum Theory: Reflections on Bell's Theorem, edited by Cushing & McMullin (University of Notre Dame Press, 1986).
L. Hardy, Nonlocality for 2 particles without inequalities for almost all entangled states. Phys. Rev. Lett. 71 1665 (1993).
M. Mizuki, A classical interpretation of Bell's inequality. Annales de la Fondation Louis de Broglie 26 683 (2001).
Livros
J.S. Bell, Speakable and Unspeakable in Quantum Mechanics (Cambridge University Press, 1987). ISBN 0-521-36869-3
J.J. Sakurai, Modern Quantum Mechanics (Addison-Wesley, 1994), pp. 174–187, 223-232. ISBN 0-201-53929-2
F. Selleri, Quantum Mechanics Versus Local Realism: The Einstein-Podolsky-Rosen Paradox (Plenum Press, New York, 1988)
Ligações externas
A. Fine, The Einstein-Podolsky-Rosen Argument in Quantum Theory
Abner Shimony, Bell’s Theorem (2004)
EPR, Bell & Aspect: The Original References
Does Bell's Inequality Principle rule out local theories of quantum mechanics? From the Usenet Physics FAQ.
Obtida de "http://pt.wikipedia.org/w/index.php?title=Paradoxo_EPR&oldid=26431486"

Interpretação de Copenhaga

A Interpretação de Copenhague (português brasileiro) ou Interpretação de Copenhaga (português europeu) é a interpretação mais comum da Mecânica Quântica e foi desenvolvida por Niels Bohr e Werner Heisenberg que trabalhavam juntos em Copenhague em 1927.

Pode ser condensada em três teses:

As previsões probabilísticas feitas pela mecânica quântica são irredutíveis no sentido em que não são um mero reflexo da falta de conhecimento de hipotéticas variáveis escondidas.
No lançamento de dados, usamos probabilidades para prever o resultado porque não possuímos informação suficiente apesar de acreditarmos que o processo é determinístico.
As probabilidades são utilizadas para completar o nosso conhecimento. A interpretação de Copenhague defende que em Mecânica Quântica, os resultados são indeterminísticos.
A Física é a ciência dos resultados de processos de medida. Não faz sentido especular para além daquilo que pode ser medido. A interpretação de Copenhague considera sem sentido perguntas como "onde estava a partícula antes de a sua posição ter sido medida?".
O ato de observar provoca o "colapso da função de onda", o que significa que, embora antes da medição o estado do sistema permitisse muitas possibilidades, apenas uma delas foi escolhida aleatoriamente pelo processo de medição, e a função de onda modifica-se instantaneamente para refletir essa escolha.
A complexidade da mecânica quântica (tese 1) foi atacada pela experiência (imaginária) de Einstein-Podolsky-Rosen, que pretendia mostrar que têm que existir variáveis escondidas para evitar "efeitos não locais e instantâneos à distância".
A desigualdade de Bell sobre os resultados de uma tal experiência foi derivada do pressuposto de que existem variáveis escondidas e não existem "efeitos não-locais".
Em 1982, Aspect levou a cabo a experiência e descobriu que a desigualdade de Bell era violada, rejeitando interpretações que postulavam variáveis escondidas e efeitos locais. Esta experiência foi alvo de várias críticas e novas experiências realizadas por Weihs e Rowe confirmaram os resultados de Aspect.
Muitos físicos e filósofos notáveis têm criticado a Interpretação de Copenhague, com base quer no fato de não ser determinista quer no fato de propor que a realidade é criada por um processo de observação não físico.
As frases de Einstein "Deus não joga aos dados" e "Pensas mesmo que a Lua não está lá quando não estás a olhar para ela?" ilustram a posição dos críticos.
A experiência do Gato de Schroedinger foi proposta para mostrar que a Interpretação de Copenhague é absurda.
A alternativa principal à Interpretação de Copenhague é a Interpretação de Everett dos mundos paralelos.
Referências
Physics FAQ section about Bell's inequality
G. Weihs et al., Phys. Rev. Lett. 81 (1998) 5039
M. Rowe et al., Nature 409 (2001) 791.

Gato de Schrödinger


O Gato de Schrödinger:
Um gato, junto com um frasco contendo veneno, é posto em uma caixa lacrada protegida contra incoerência quântica induzida pelo ambiente. Se um contador Geiger detectar radiação então o frasco é quebrado, liberando o veneno que mata o gato. A mecânica quântica sugere que depois de um tempo o gato está simultaneamente vivo e morto. Mas, quando olha-se dentro da caixa, apenas se vê o gato ou vivo ou morto, não uma mistura de vivo e morto.

Mecânica quântica

O Gato de Schrödinger é um experimento mental, frequentemente descrito como um paradoxo, desenvolvido pelo físico austríaco Erwin Schrödinger em 1935. Isso ilustra o que ele observou como o problema da interpretação de Copenhague da mecânica quântica sendo aplicado a objetos do dia-a-dia, no exemplo de um gato que pode estar vivo ou morto, dependendo de um evento aleatório precedente. No curso desse experimento, ele criou o termo Verschränkung (entrelaçamento).

Origem e motivação

O experimento mental de Schrödinger foi proposto como discussão do artigo EPR, nomeado devido aos seus autores: Albert Einstein, Podolsky, Rosen em 1935.[1] O paradoxo EPR esclareceu a estranha natureza das superposições quânticas.
Amplamente exposto, a superposição quântica é a combinação de todos os possíveis estados do sistema (por exemplo, as possíveis posições de uma partícula subatômica).
A interpretação de Copenhague implica que a superposição apenas sofre colapso em um estado definido no exato momento da medição quântica.
Schrödinger e Einstein trocaram cartas sobre o artigo EPR de Einstein, durante o qual Einstein indicou que a superposição quântica de um barril instável de pólvora irá, após um tempo, conter ambos componentes explodidos e não-explodidos.
Para melhor ilustrar o paradigma incompleto da mecânica quântica, Schrödinger aplicou a teoria da mecânica quântica em uma entidade viva que podia ou não estar consciente.
No experimento mental original de Schrödinger ele descreveu como um poderia, em princípio, transformar a superposição dentro de um átomo para uma superposição em grande escala de um gato morto e vivo por relacionar gato e átomo com a ajuda de um "mecanismo diabólico".
Ele propôs um cenário com um gato em uma caixa lacrada, onde a vida ou morte do gato é dependente do estado de uma partícula subatômica. De acordo com Schrödinger, a interpretação de Copenhague implica que o gato permanece vivo e morto até que a caixa seja aberta.
Schrödinger não desejava promover a ideia de gatos vivos-e-mortos como uma séria possibilidade; o experimento mental serve para ilustrar a bizarrice da mecânica quântica e da matemática necessária para descrever os estados quânticos.
Entendida como uma crítica da interpretação de Copenhague – a teoria prevalecente em 1935 – o experimento mental do gato de Schrödinger permanece um tópico padrão para todas as interpretações da mecânica quântica; a maneira como cada interpretação lida com o gato de Schrödinger é frequentemente usada como meio de ilustrar e comparar características particulares de cada interpretação, seus pontos fortes e fracos.

O experimento mental

Schrödinger escreveu:

Qualquer um pode mesmo montar casos bem ridículos.
Um gato é trancado dentro de uma câmara de aço, juntamente com o dispositivo seguinte (que devemos preservar da interferência directa do gato): num tubo contador Geiger há uma pequena porção de substância radioativa, tão pequena que talvez, no decurso de uma hora, um dos seus átomos decaia, mas também, com igual probabilidade, talvez nenhum decaia; se isso acontecer, o tubo contador liberta uma descarga e através de um relé solta um martelo que estilhaça um pequeno frasco com ácido cianídrico.
Se deixarmos todo este sistema isolado durante uma hora, então diremos que o gato ainda vive, se entretanto nenhum átomo decaiu.
A função-Ψ do sistema como um todo iria expressar isto contendo em si mesma o gato vivo e o gato morto (desculpem-me a expressão) misturados ou dispostos em partes iguais.
É típico destes casos que uma indeterminação originalmente confinada ao domínio atômico venha a transformar-se numa indeterminação macroscópica, a qual pode então ser resolvida pela observação direta. Isso os previne de tão ingenuamente aceitarmos como válido um "modelo impreciso" para representar a realidade.
Em si mesma esta pode não incorporar nada de obscuro ou contraditório.
Há uma diferença entre uma fotografia tremida ou desfocada e um instantâneo de nuvens e bancos de nevoeiro.— [2]
O texto acima é a tradução de dois parágrafos do artigo original bem mais extenso, o qual aparece na revista alemã Naturwissenschaften ("Ciências Naturais") em 1935.[3]
A famosa experiência mental de Schrödinger coloca a questão: quando o sistema quântico pára de ser uma mistura de estados e se torna ou um ou o outro?
(Mais tecnicamente, quando o atual estado quântico para de ser uma combinação linear de estados, cada um dos quais se parece com estados clássicos diferentes, e em vez disso começar a ter apenas uma clássica descrição?)
Se o gato sobreviver, isso lembra que ele está apenas vivo.
Mas as explicações das experiências EPR que são consistentes com a mecânica quântica microscópica padrão requer que objetos macroscópicos, como gatos e cadernos, não podem ter sempre apenas uma descrição clássica.
O propósito da experiência mental é para ilustrar esse aparente paradoxo: nossa intuição diz que nenhum observador pode estar em uma mistura de estados, mesmo que eles sejam gatos, por exemplo, eles não podem estar em tal mistura.
É necessário que os gatos sejam observadores, ou sua existência em um estado clássico simples e bem definido exige outro observador externo?
Cada alternativa pareceu absurda para Albert Einstein, que estava impressionado pela habilidade do experimento mental para esclarecer esses problemas; em uma carta à Schrödinger datada de 1950 ele escreveu:
Você é o único físico contemporâneo, além de Laue, que vê o que ninguém consegue sobre a assunção da realidade – se pelo menos alguém estiver sendo honesto. A maioria deles simplesmente não vê o tipo de jogo arriscado que eles estão jogando com a realidade – a realidade é algo independente do que já for a experimentalmente visto.
A interpretação deles é, entretanto, refutada mais elegantemente pelo seu sistema de átomo radioativo + amplificador + carga de pólvora + gato em uma caixa, no qual a função-psi do sistema contém ambos gato vivo e explodido em pedaços. Ninguém realmente duvida que a presença ou ausência do gato é algo independente do ato de observação.— [4]
Note que nenhuma carga de pólvora é mencionada no esquema de Schrödinger, que usa um contador Geiger como amplificador e cianeto no lugar de pólvora; a pólvora foi apenas mencionada na sugestão original de Einstein para Schrödinger 15 anos antes.

Interpretação de Copenhague

Na interpretação de Copenhague na mecânica quântica, um sistema para a superposição de estados se torna um ou outro quando uma observação acontece.
Essa experiência torna aparente o fato de que a natureza da medição, ou observação, não é bem definida nessa interpretação.
Alguns interpretam a experiência, enquanto a caixa estiver fechada, como um sistema onde simultaneamente existe uma superposição de estados "núcleo decaído/gato morto" e "núcleo não-decaído/gato vivo", e apenas quando a caixa é aberta e uma observação é feita é que, então, a função de onda colapsa em um dos dois estados.
Mais intuitivamente, alguns pensam que a "observação" é feita quando a partícula do núcleo atinge o detector. Essa linha de pensamento pode ser desenvolvida pelas teoria de colapso objetiva. Por outro lado, a interpretação de muitos mundos nega que esse colapso sequer ocorra.
Steven Weinberg disse:
Toda essa história familiar é verdade, mas ela deixa uma ironia. A versão de Bohr da mecânica quântica estava profundamente cheia de falhas, mas não pela razão que Einstein pensa. A interpretação de Copenhague descreve o que acontece quando um observador realize uma medição, mas o observador e o ato de medição são ambos tratados classicamente.
Isso é totalmente errado: Físicos e seus aparatos devem ser comandados pelas mesmas regras da mecânica quântica que comandam todo o universo.
Mas essas regras são expressas em termos de uma função de onda (ou, mais precisamente, um vetor de estado) que evolui de um jeito perfeitamente determinístico.
Então de onde as regras probabilísticas da interpretação de Copenhague vêm?
Um progresso considerável tem sido feito nos últimos anos em direção a resolução do problema, o qual eu não irei entrar em detalhes aqui.
É suficiente que se diga que nem Böhr nem Einstein se concentraram no problema verdadeiro da mecânica quântica.
As regras de Copenhague claramente funcionam, mas elas tem que ser aceitas. Mas isso deixa a tarefa de explicá-las aplicando a equação determinística para a evolução da função de onda, a Equação de Schrödinger, tanto para o observador quanto para os aparatos.— [5]

A interpretação de muitos mundos de Everett & Histórias consistentes

Na interpretação de muitos mundos da mecânica quântica, a qual não isola a observação como um processo especial, ambos estados vivo e morto do gato persistem, mas são incoerentes entre si.
Nos outros mundos, quando a caixa é aberta, a parte do universo contendo o observador e o gato são separados em dois universos distintos, um contendo um observador olhando para um gato morto, outro contendo um observador vendo a caixa com o gato vivo.
Como os estados vivo e morto do gato são incoerentes, não têm comunicação efetiva ou interação entre eles.
Quando um observador abre a caixa, ele se entrelaça com o gato, então, as opiniões dos observadores do gato sobre ele estar vivo ou morto são formadas e cada um deles não tem interação com o outro.
O mesmo mecanismo de incoerência quântica é também importante para a interpretação em termos das Histórias consistentes. Apenas "gato morto" ou "gato vivo" pode ser parte de uma história consistente nessa interpretação.
Roger Penrose criticou isso:
Eu desejo tornar isso claro, que o que está sendo debatido está longe de resolver o paradoxo do gato. Até agora não há nada no formalismo da mecânica quântica que necessita que um estado de consciência não possa envolver a percepção simultânea de um gato morto-vivo.— [6]
Embora a visão mais aceita (sem necessariamente endossar os Vários-Mundos) é que a incoerência é o mecanismo que proíbe tal percepção simultânea.[7][8]
Uma variante da experiência do Gato de Schrödinger conhecida como máquina de suicídio quântico foi proposta pelo cosmologista Max Tegmark.
Ele examinou a experiência do Gato de Schrödinger da perspectiva do gato, e argumentou que essa teoria pode ser distinta entre a interpretação de Copenhague e a de muitos mundos.
Interpretação conjunta
A interpretação conjunta afirma que superposições não são nada mais do que subconjuntos de um grande conjunto estatístico.
Sendo esse o caso, o vetor estado não se aplicaria individualmente ao experimento do gato, mas apenas às estatísticas de muitos experimentos semelhantes.
Os proponentes dessa interpretação afirmam que isso faz o paradoxo do Gato de Schrödinger um problema trivial não resolvido.
Indo por esta interpretação, ela descarta a idéia que um simples sistema físico tem uma descrição matemática que corresponde a isso de qualquer jeito.
Teorias de colapso objetivas
De acordo com as teorias de colapso objetivo, superposições são destruídas espontaneamente (independente de observação externa) quando algum princípio físico objetivo (de tempo, massa, temperatura, irreversibilidade etc) é alcançado.
Assim, espera-se que o gato tenha sido estabelecido em um estado definido muito tempo antes da caixa ser aberto.
Isso poderia vagamente ser dito como "o gato se observa", ou "o ambiente observa o gato".
Teorias do colapso objetivo requerem uma modificação da mecânica quântica padrão, para permitir superposições de serem destruídas pelo processo de evolução no tempo.
Em teoria, como cada estado é determinado pelo estado imediatamente anterior, e este pelo anterior, ad infinitum, a pré-determinação para cada estado teria sido determinada instantaneamente pelo "princípio" inicial do Big Bang.
Assim o estado do gato vivo ou morto não é determinada pelo observador, ele já foi pré-determinado pelos momentos iniciais do universo e pelos estados subsequentes que sucessivamente levaram ao estado referenciado no experimento mental.
Aplicações práticas
O experimento é puramente teórico, e o esquema proposto jamais poderá ser construído.
Efeitos análogos, entretanto, tem algum uso prático em computação quântica e criptografia quântica.
É possível enviar luz em uma superposição de estados através de um cabo de fibra óptica.
Colocando um grampo no meio do cabo que intercepta e retransmite, a transmissão irá quebrar a função de onda (na interpretação de Copenhague, "realizar uma observação") e irá provocar que a luz caia em um estado ou em outro.
Por testes estatísticos realizados na luz recebida na outra ponta do cabo, o observador pode saber se ele permanece na superposição de estados ou se ele já foi observado e retransmitido.
Em princípio, isso permite o desenvolvimento dos sistemas de comunicação que não possam ser grampeados sem que o grampo seja notado na outra ponta.
O experimento pode ser citado para ilustrar que a "observação" na interpretação de Copenhague não tem nada a ver com percepção (a não ser em uma versão do Panpsiquismo onde é verdade), e que um grampo perfeitamente imperceptível irá provocar que as estatísticas no fim do cabo sejam diferentes.
Em computação quântica, a frase "cat state" (Estado do gato) frequentemente refere-se ao emaranhamento dos qubits onde os qubits estão em uma superposição simultânea de todos sendo 0 e todos sendo 1, ou seja, + .

Extensões

Embora a discussão desse experimento mental fala sobre dois possíveis estados (gato vivo e gato morto), na realidade teria um número enorme de estados possíveis, pois a temperatura e grau e estado de decomposição do gato iria depender em exatamente quando e como, assim como se, o mecanismo foi acionado, assim como o estado do gato imediatamente antes da morte.
Em outra extensão, físicos foram tão longe como sugerir que astrônomos observando matéria escura no universo durante 1998 poderiam ter "reduzido sua expectativa de vida" através de um cenário de pseudo-Gato de Schrödinger, embora esse seja um ponto de vista controverso.[9][10]

Outra variação do experimento é do Amigo de Wigner, no qual tem dois observadores externos, o primeiro que abre e inspeciona a caixa e quem então comunica suas observações a um segundo observador. O problema aqui é, a função de onda entra em colapso quando o primeiro observador abre a caixa, ou apenas quando o segundo observador é informado das observações do primeiro observador?

Referências

(em inglês)Artigo EPR: Pode a descrição da mecânica quântica da realidade física ser considerada completa?
(em inglês)Schrödinger: "A situação atual da Mecânica Quântica"
(em alemão) Schrödinger, Erwin. (1935). "Die gegenwärtige Situation in der Quantenmechanik (A situação Atual da Mecânica Quântica)". Naturwissenschaften.
(em inglês)Link para a carta de Einstein
(em inglês)Weinberg, Steven. (2005). "Os enganos de Einstein". Physics Today 58: 31. DOI:10.1063/1.2155755.
(em inglês)Penrose, R. The Road to Reality (A estrada para a realidade), pág. 807.
(em inglês)Wojciech H. Zurek, Incoerência, einselection (Seleção induzida pelo ambiente), e as origens quânticas do clássico, Reviews of Modern Physics (Críticas à Física Moderna) 2003, 75, págs. 71-75 ou [1]
(em inglês)Wojciech H. Zurek, Incoerência e a transição da quântica para a clássica, Physics Today (Física Hoje), 44, págs. 36–44 (1991)
Highfield, Roger (2007-11-21). Mankind 'shortening the universe's life'. The Daily Telegraph. Página visitada em 25/11/2007.
Chown, Marcus (2007-11-22). Has observing the universe hastened its end?. New Scientist. Página visitada em 25/11/2007.
Obtida de "http://pt.wikipedia.org/w/index.php?title=Gato_de_Schr%C3%B6dinger&oldid=27741648"

Minha Teoria sobre o TEMPO (Roberto da Silva Rocha)


- Com as vênias de: Schrödinger, Dirac, Einstein, Heisenberg, Mach, Planck, Bohr, e de Laue.

Minha nova interpretação para o paradoxo EPR acabou gerando uma nova concepção teórica, um constructo hipotético sobre o fenômeno da temporalidade.
Parece-me que esta nova explicação para o fenômeno do tempo poderia contemplar este paradoxo EPR e nos leva à tentação de explicar muito mais do que parece ser possível na Física Quântica.

Hipótese:

A hipótese que pretendo examinar pode ser declarada nos seguintes termos:

Corolário nº 1
A equação do tempo T = 1/F, onde T é o período de onda e F é a freqüência fundamental da onda.

Consequencia do Corolário nº 1 é que:
O tempo é inversamente proporcional à magnitude escalar da Frequência

Corolário nº 2
A velocidade da Luz em uma freqüência típica do espectro eletromagnético visível estabelece um operador para as operações de transformações aplicadas sobre outros fenômenos quânticos de maneira que o T, período, aproxima-se de zero de tal forma que pode ser considerado o limite temporal superior, acima do qual o tempo começaria a ser negativo (regressivo).

Corolário nº 3
Cada sistema possui o seu próprio período, vale dizer, o seu próprio tempo.

Consequência do corolário nº 3:
Um supersistema constituído de subsistemas menores teria várias operações de tempo, vale dizer, superposições temporais entrelaçadas e independentes.

Corolário n º 4
1. O pico e o vale da forma de onda senoidal representam os estados de energia pura;
2. Entre o pico e o vale a matéria se transduz da energia e vice-versa;
3. Assim, existem dois estados da frequência: a) matéria;
                                                                      b) Energia.
4. O tempo também é quantizado;
5. O tempo é fracionado (quantizado) entre os estados de energia (pico e vale) da onda senoidal;
6. O tempo é nulo dos estados de energia pura (no pico e no vale da forma de onda senoidal);
 7. O fóton surge com testemunha da passagem do estado de energia do pico para o vale e do vale para o pico na onda senoidal;
 8. A menor fração de tempo conhecida e verificável (quanta) é a transição do fóton para a energia e da energia para o fóton;

Conclusões:

O caso do gato de Schrödinger

Ao observar a roda do automóvel em movimento de rotação, um observador estacionário em relação ao pneu não conseguiria ler o que está escrito na banda de rodagem externa. Com o auxílio de uma câmara de fotografia de alta velocidade do obturador ele poderia parar o tempo do pneu e ler o que está ali escrito, dependendo da velocidade do obturador da máquina fotográfica, sem borrão.
Quando um observador abre a caixa, o seu tempo se entrelaça com tempo do gato, então, as opiniões dos observadores do gato sobre ele estar vivo ou morto são formadas e cada um dos observadores não tem interação com o outro observador por que os relógios dos dois observadores ainda não foram sincronizados.
O mesmo mecanismo de incoerência quântica é também importante para a interpretação em termos das Histórias consistentes. São histórias com contagens de tempo diferentes entre si, até que os tempos se entrelacem.
Apenas "gato morto" ou "gato vivo" pode ser parte de uma história consistente nessa interpretação de sincronismo, por que os eventos estão separados pelo tempo, e o observador apenas consegue um sincronismo: com o tempo do gato vivo ou com o tempo do gato morto.
Tem-se uma fonte emissora de pares de elétrons, com um elétron enviado para o destino A, onde existe uma observadora chamada Alice, e outro enviado para o destino B, onde existe um observador chamado Bob.
De acordo com a mecânica quântica, podemos arranjar nossa fonte de forma tal que cada par de elétrons emitido ocupe um estado quântico conhecido como spin singlet.
Daí já podemos distinguir algumas situações quânticas de funções de onda, e na perspectiva temporal cada spin cada translação representa na função de onda um determinado relógio, dado pelo período de cada elétron, dado pela relação entre a frequência e o período, (t = 1/f)), logo teremos de sincronizar em algum momento da observação os tempos dos elétrons respectivos e autônomos, pois que ainda não interagiram com a observação.
No momento da observação se dará o colapso temporal então da sincronização será verificado o estado dos spins de cada um.
Isto pode ser visto como uma superposição quântica de dois estados; sejam eles I e II. No estado I, o elétron A tem spin apontado para cima ao longo do eixo z (+z) e o elétron B tem seu spin apontando para baixo ao longo do mesmo eixo (-z), dado pela disposição temporal de seus respectivos relógios.
No estado II, o elétron A tem spin -z e o elétron B, +z.
Portanto, é impossível associar qualquer um dos elétrons em um spin singlet, com um estado definido de spin.
Os elétrons estão, portanto, no chamado entrelaçamento, dado pela sincronização temporal causada pelo efeito da observação.
Alice mede neste momento o spin no eixo z. Ela pode obter duas possíveis respostas: +z ou -z. Suponha que ela obteve +z. De acordo com a mecânica quântica, o estado quântico do sistema colapsou temporalmente para o estado I. (Diferentes interpretações da mecânica quântica têm diferentes formas de dizer isto, mas o resultado básico é o mesmo).
O estado quântico determina a probabilidade das respostas de qualquer medição realizada no sistema. Neste caso, se Bob a seguir medir o spin no eixo z, ele obterá -z com 100% de certeza. Similarmente, se Alice obtiver -z, Bob terá +z.
Não há, certamente, nada de especial quanto à escolha do eixo z.
Por exemplo, suponha que Alice e Bob agora decidam medir o spin no eixo x. De acordo com a mecânica quântica, o estado do spin singlet deve estar expresso igualmente bem como uma superposição dos estados temporais de spin orientados na direção x.
Chamemos tais estados temporais de Ia e IIa. No estado de sincronismo temporal de Ia, o elétron de Alice tem o spin +x e o de Bob, -x.
No estado temporal de IIa, o elétron de Alice tem spin -x e o de Bob, +x. Portanto, se Alice mede +x, o sistema colapsa temporalmente para Ia e Bob obterá -x.
Por outro lado, se Alice medir -x, o sistema colapsa temporalmente para IIa e Bob obterá +x.
Em mecânica quântica, o spin x e o spin z são "observáveis incompatíveis sem considera o sincronismo temporal com o observador temporal", que significa que há um principio da incerteza de Heisenberg operando entre eles: um estado quântico não pode possuir um valor definido para ambas as variáveis sincronicamente.
Suponha que Alice meça o spin z e obtenha +z, com o estado quântico colapsando temporalmente para o estado I.
Agora, ao invés de medir o spin z também, suponha que Bob meça o spin x.
De acordo com a mecânica quântica, quando o sistema está no estado temporal I, a medição do spin x de Bob terá uma probabilidade de 50% de produzir +x e 50% de -x.
Além disso, é fundamentalmente impossível predizer qual resultado será obtido até o momento que Bob realize a medição.
Incidentalmente, embora tenhamos usado o spin como exemplo, muitos tipos de quantidades físicas — que a mecânica quântica denomina como "observáveis" — podem ser usados para produzir entrelaçamento temporal quântico.
  1. A observação de qualquer estado está relacionada com a velocidade angular, vale dizer, da freqüência do observador em relação à freqüência do estado que está sendo observado, daí às várias possíveis interpretações divergentes de estados diferentes para o Gato de Schrödinger.
  2. O tempo não é o mesmo no universo. Cada partícula tem o seu próprio tempo, assim como os corpos extensos de quaisquer dimensões no cosmo.
  3. O tempo é uma propriedade particular e única para cada coordenada do universo. Depende apenas da equação T=1/F.
  4. Quanto mais lenta a partícula, maior o seu tempo, consequentemente, quanto mais rápido (maior a sua frequência) a partícula se move mais lento é o seu tempo, vale dizer, menor é o seu período.
A perspectiva de observação de quem se move à velocidade da luz, ou seja, em frequência elevada, é a de que nada se move no universo.
Uma explosão de uma bomba química parece a um observador em repouso como um evento instantâneo, mas, se o mesmo estivesse se movimentando à quase a mesma velocidade da luz poderia ver cada fase da explosão com se fosse uma parede de tijolos sendo erguida pacientemente por um habilidoso pedreiro, peça-a-peça.
No limiar da velocidade da luz todos os eventos anteriores e posteriores parecem indiscerníveis ao observador assim postado. Esta é a causa do emaranhamento quântico.
Explicando o paradoxo de Bell, John Bell que mostrou que as predições da mecânica quântica no experimento mental de EPR são sempre ligeiramente diferentes das predições de uma grande parte das teorias de variáveis ocultas, falando ele, Bell, que a mecânica quântica prediz uma correlação estatística ligeiramente mais forte entre os resultados obtidos em diferentes eixos do que o obtido pelas teorias de variáveis ocultas.
Estas diferenças, expressas através de relações de desigualdades conhecidas como "desigualdades de Bell", são em princípio detectáveis experimentalmente. Para uma análise mais detalhada deste estudo, veja teorema de Bell.

Uma explicação para este paradoxo de Bell é que os astrofísicos, Físicos, Filósofos, cometeram um grande equívoco: fizeram a presunção, e suposição de que o universo funciona como um gigantesco GPS, onde os eventos cósmicos pudessem ser sincronizados a um grande cronômetro.

Antes do Big-bang, não existia matéria, nem matéria escura, por conseguinte, antes do grande bang não existia o tempo, nem as leis da Física, nem da Biologia, nem Matemática, somente existia uma grande concentração de uma determinada forma de energia numa singularidade.

Depois do big bang surgiu o tempo, mas, não um tempo sincronizado, como trabalha a Física, a Astrofísica. O tempo é fragmentado e customizado por cada partícula do universo. Cada qual tem o seu próprio relógio, a cadenciar o seu ciclo de vida.

Depois da publicação do trabalho de Bell, inúmeros experimentos foram idealizados para testar as desigualdades de Bell. (Como mencionado acima, estes experimentos geralmente baseiam-se na medição da polarização de fótons).
Todos os experimentos feitos até hoje encontraram comportamento similar às predições obtidas da mecânica quântica padrão. Baseados no tempo sincronizado do universo.
Sabemos que todos os experimentos são referenciados ao tempo do observador, daí ao experimento mental do gato de Schöredinger onde o evento somente se define para o observador, diga-se, para o momento da verificação, dentro de um contexto de descoberta, dentro do contexto de verificação e dentro de um contexto de explicação e de justificação do experimento.
Este desemaranhamento dos tempos escolhe o evento aleatóriamente e o sincroniza com o tempo da observação, instantaneamente.

Porém, este campo ainda não estava completamente definido.
Antes de mais nada, o teorema de Bell não se aplica a todas as possíveis teorias "realistas".
Foi possível agora construir uma teoria que escapa de suas implicações e que são, portanto, distinguíveis da mecânica quântica; porém, estas teorias são geralmente não-locais — não parecem violar a casualidade e as regras da relatividade especial.
Depois da formulação da teoria do tempo assíncrono no universo, as variáveis ocultas que exploram brechas nos experimentos atuais, tais como brechas nas hipóteses feitas para a interpretação dos dados experimentais, ficam assim explicadas e justificadas num contexto de justificação lógico e formal.
Todavia, ninguém ainda tinha antes da teoria da assincronicidade conseguido formular uma teoria realista localmente que pudesse reproduzir todos os resultados da mecânica quântica.

As grandes dificuldades nestas experiências mentais do gato de Schöredinger e as estruturas mentais de Bell nos remetem às duas questões:

  
  • a) A assincronia temporal do universo;
  • b) A atemporalidade de partículas viajando à velocidade da luz;

2) Consequências:

  • a) O tempo congela-se no nosso âmbito de verificabilidade de eventos nas proximidades da velocidade da luz;
  • b) A determinação de eventos ocorridos no universo, como até mesmo a determinação da idade do universo torna-se temerário, uma vez que estamos referenciados à temporalidade do âmbito da percepção humana do tempo, isto é, no nosso cronômetro particular.
  • c) Os eventos da criação do universo pouco antes, durante e pouco depois do big-bang se deram atemporalmente, isto é: o tempo estava congelado durante estes estágios, como ocorre com os estágios dos ciclos das partículas atômicas e subatômicas.
  • d) A determinação seqüencial dos eventos no microcosmo das partículas requer um outro olhar para a situação do desentrelaçamento temporal humano dos eventos observáveis.

Na interpretação de muitos mundos da mecânica quântica, de Everett, a qual não isola a observação como um processo especial temporal, ambos estados vivo e morto do gato persistem, mas são incoerentes entre si, se vistos como sincronizados entre si.

Agora poderemos rever estes conceitos de mundos separados pelo tempo, mas, um tempo de sincronismo entre o evento que cai no âmbito do tempo do observador do evento A, e o mesmo raciocínio é válido para a alternativa do evento B sincronizado com o tempo do observador (gato morto, A, ou gato vivo, B).

Nos outros mundos, de Everett, quando a caixa é aberta, a parte do universo contendo o observador e o gato são separados em dois universos distintos, um contendo um observador olhando para um gato morto, outro contendo um observador vendo a caixa com o gato vivo. Isto somente só seria explicado para tempos ou relógios separados.

Como os estados vivo e morto do gato são incoerentes, quando sincronizados temporalmente, não têm comunicação efetiva ou interação entre eles.

Quando um observador abre a caixa, ele entrelaça o seu cronômetro com o cronômetro do gato, então, as opiniões dos observadores do gato sobre ele estar vivo ou morto são formadas e cada um dos estados do gato não tem interação um com o outro.

O mesmo mecanismo de incoerência quântica é também importante para a interpretação em termos das Histórias consistentes. Apenas "gato morto" ou "gato vivo" pode ser parte de uma história consistente nessa interpretação temporal.

Uma outra conclusão destes conceitos é a de que se explicaria o por quê do trabalho que mantém as partículas sempre em movimento sem desperdiçar energia, (W= e.t, “W” trabalho, “e” energia, “t” tempo) é que o tempo quase congelado (quase-nulo) impede que esta energia seja consumida, pois sendo W quase = 0, não viola os princípios da mecânica clássica da termodinâmica. Está superado mais um impasse-mistério do universo o qual seria a misteriosa fonte de energia do átomo e de suas partículas nunca decaírem.

 PS.: Tudo o que cai no âmbito da consciência ou da nossa cognição não passa de fenômenos subjetivos não submetidos à epochê de Husserl.
Este estado de coisas superpostas tem muito a ver com a Fenomenologia. Tudo que é observado é modificado pela consciência de quem observa e é único, subjetivo enquanto fenômeno, é como se fosse uma visão particular do evento.

http://professorrobertorocha.blogspot.com/2011/11/campo-gravitacional-existe.html

Gostou do Blog O blog lhe foi útil Colabore para o autor Faça doações de valores A partir de US $ 1,00 Do you like this blog Is it useful to you donate from US $ 1,00 Bank Santander number 033 Brazil Agency 2139 Current 01014014-4 Bank of Brazil Agency 5197-7 Acount 257 333-4
http://professorrobertorocha.blogspot.com/2011/09/lei-da-evolucao-das-leis-do-universo.html