sábado, 25 de janeiro de 2014

As forças da Natureza


Imagino que a maioria das pessoas responderia que são inúmeras as forças que existem na Natureza. Alguns pensarão no uso corriqueiro da palavra "força", mencionando forças do bem, do mal, ocultas, de vontade, de expressão. Mesmo ficando no campo das forças em física, contaríamos a força elétrica, magnética, da gravidade, de contacto, de atrito, elástica.

Pois bem, na verdade há apenas quatro forças na Natureza. E o que pode ser mais surpreendente, apenas duas delas são relevantes em nosso cotidiano.

A força mais familiar é a da gravidade, ou gravitacional. Sua consequência mais perceptível é que corpos tendem a cair no chão, atraídos que são pela Terra. A força gravitacional é sempre atrativa e aparece entre dois corpos quaisquer. Duas pessoas próximas sofrem atração gravitacional, mas isso seria impossível perceber ou medir com os aparelhos que temos à disposição. Ocorre que a força gravitacional é muito pequena, só se manifestando quando pelo menos um dos corpos tem uma grande massa, como a Terra. Por isso, não temos dúvidas que corpos são atraídos pela Terra, mas não entre si (aparentemente!).

As outras três forças da Natureza são a eletromagnética, a nuclear fraca e a nuclear forte. Deixemos por último a força eletromagnética, que é a outra de relevância para o cotidiano. As forças nucleares só agem dentro do átomo, tendo alcance muito pequeno. Por exemplo, o núcleo de um átomo não afetaria o de outro átomo, se dependesse apenas das forças nucleares, pois elas são desprezíveis à distância entre dois átomos. As forças nucleares, fortes e fracas, são responsáveis pela estabilidade do átomo e explicam fenômenos como a radioatividade.

Em ensaio anterior, comentei a necessidade de haver forças nucleares para explicar a estabilidade do núcleo (e do átomo). Um átomo é constituído de um núcleo, onde estão os prótons carregados positivamente e os nêutrons, que não têm carga elétrica, e de elétrons. Como cargas de mesmo sinal se repelem, os prótons no núcleo sofrem repulsão entre si, que é tanto maior quanto mais próximos estiverem. Portanto, para que os prótons não se separem e o núcleo "exploda", forças adicionais devem atuar. Precisam ser atrativas para compensar a repulsão elétrica. São as forças nucleares fortes.

A força restante é a eletromagnética. Ela engloba todas as possíveis forças que podemos imaginar no nosso dia-a-dia, com exceção da gravitacional. A força de atrito, de contacto, elástica, elétrica, magnética, são todas de origem eletromagnética. São manifestações das interações entre átomos e moléculas dos corpos envolvidos na determinada força. Isso quer dizer que a força exercida para empurrar algo, ou para abraçar um amigo, é uma força eletromagnética.

As forças eletromagnéticas podem ser atrativas ou repulsivas. Só são repulsivas em duas situações. Quando participarem cargas elétricas de mesmo sinal ou quando dois corpos tentarem ocupar o mesmo lugar no espaço. É interessante que um conceito macroscópico, como este de dois corpos não poderem estar no mesmo lugar ao mesmo tempo, tenha origem quântica. De fato, essa repulsão extremamente forte é devida ao Princípio da Exclusão de Pauli, um princípio da Mecânica Quântica segundo o qual dois elétrons com as mesmas características não podem estar na mesma região do espaço em dado momento.

A grande variedade de "forças" de origem eletromagnética se deve ao fato de corpos neutros também interagirem entre si. Pois mesmo sendo neutros, tais corpos têm cargas positivas e negativas (obviamente porque são constituídos de átomos com núcleos positivos e elétrons que têm carga negativa) que interagem na escala atômica ou molecular.

Sobre neutralidade, há uma observação curiosa. Se duas pessoas a um metro de distância tivessem 1% de carga líquida em seus corpos, sofreriam uma força de atração (se carregados com sinais opostos) ou repulsão suficiente para erguer a Terra inteira. Tamanha força não aparece devido à neutralidade dos corpos, o que fez com que fenômenos elétricos e magnéticos demorassem a ser descobertos, pois não havia fortes manifestações espontâneas. Somente após o desenvolvimento de dispositivos pelo homem, eletricidade e magnetismo passaram a ter efeitos perceptíveis em muitas situações. Até o século XVIII, tais manifestações eram praticamente limitadas à carga elétrica de materiais por atrito e ao magnetismo em ímãs.

As quatro forças da Natureza estão também no centro de um dos maiores desafios da física. Três dessas forças, a eletromagnética, a nuclear forte e a nuclear fraca, são explicadas pela teoria quântica, que não engloba a força gravitacional. Esta última é explicada pela Teoria Geral da Relatividade. Até hoje não foi encontrada maneira de unificar a Teoria da Relatividade com a Teoria Quântica. Einstein tentou por vários anos e não foi bem-sucedido.


Continuamos à espera de um gênio para resolver esse dilema. 

quarta-feira, 15 de janeiro de 2014

De onde vem a riqueza de um país rico

Há algum tempo publicou-se uma estimativa de que mais de 50% do Produto Interno Bruto (PIB) dos Estados Unidos eram oriundos de tecnologias que dependiam da teoria quântica. Ou seja, tecnologias viabilizadas pelo conhecimento da estrutura da matéria proporcionado pela teoria quântica, como já enfatizado em ensaios anteriores. Não me preocupei em verificar a porcentagem exata e nem se houve variação da percentagem ao longo dos últimos anos, porque é fácil constatar a importância crescente da informática e dos dispositivos eletrônicos em nossa sociedade.

Não tive oportunidade ainda de explicar essa teoria, o que tento fazer agora. Inicio com uma comparação com a mecânica clássica, desenvolvida por Isaac Newton, para explicitar depois as diferenças.

A mecânica clássica de Newton é baseada em três leis fundamentais: i) a lei de inércia, segundo a qual na ausência de forças um corpo permanecerá parado ou em movimento retilíneo com velocidade constante; ii) a segunda lei define que força é igual a massa vezes a aceleração de um corpo (F = ma); iii) a lei de ação e reação, que prevê forças de mesma intensidade mas sentidos contrários na interação entre dois corpos. Com essas leis é possível estudar o movimento de planetas e estrelas, além de corpos na Terra. É possível também projetar construções que sejam estáveis, mesmo contra a ação de terremotos.

Outra característica importante da mecânica clássica é que ela é determinística. Isto é, o movimento de um corpo pode ser previsto com exatidão se as forças que sobre ele agem forem conhecidas. Podemos determinar sua velocidade e posição em qualquer tempo do futuro (ou do passado). Isso será importante no contraste com a mecânica quântica.

Todas as experiências científicas até o final do século XIX confirmavam a validade da mecânica clássica. Entretanto, à medida que se tornou possível realizar experimentos com partículas submicroscópicas, como átomos isolados, notou-se que a mecânica clássica não era mais válida. Por mais de duas décadas no início do século XX desenvolveu-se a teoria quântica, assim chamada porque algumas grandezas são quantizadas. Estas não podem assumir quaisquer valores, mas somente múltiplos de uma quantidade unitária. A primeira dessas grandezas é a energia, que não pode variar continuamente. Como a quantidade unitária é muito pequena, não percebemos a quantização no mundo macroscópico.  

A teoria quântica engloba a mecânica clássica quando os sistemas físicos são macroscópicos, mas quando se trata de matéria subatômica faz previsões surpreendentes, que são confirmadas experimentalmente. Algumas das esquisitices da mecânica quântica são mencionadas abaixo:

1) Dualidade partícula-onda: toda partícula pode se comportar como partícula ou como onda. É possível prever como a partícula se comportará pelo tipo de experimento. Se a partícula estiver se propagando, comporta-se como onda. Se interagir com o ambiente e trocar energia, comporta-se como partícula.

2) Princípio da Incerteza de Heisenberg – não é possível determinar a posição e velocidade de uma partícula com precisão absoluta. Se soubermos com exatidão a posição da partícula nada saberemos sobre sua velocidade. O mesmo vale para a velocidade: se for conhecida com exatidão, nada poderá ser dito sobre a posição da partícula. Uma consequência importante desse Princípio é que as coisas na Natureza nunca podem estar completamente paradas, sem nenhum movimento.

3) A Mecânica Quântica é probabilística: não se pode determinar a trajetória de uma partícula, ao contrário da mecânica clássica. Esta característica da mecânica quântica sempre desagradou a Einstein, que não estava completamente convencido de sua validade e proferiu a famosa frase “Não acredito que Deus jogue dados”.

As manifestações dessas esquisitices não são percebidas no nosso mundo essencialmente macroscópico, porque seus efeitos não são mensuráveis. A incerteza na medida de posição e velocidade prevista pelo Princípio de Heisenberg para um carro em movimento, por exemplo, é ordens de grandeza menor do que a precisão com que essas grandezas podem ser medidas. 

A teoria quântica é abstrata e mesmo sua interpretação é controversa, em razão das previsões que contrariam o senso comum. Entretanto, a aplicação do formalismo matemático a ela subjacente sempre leva a resultados corretos, confirmados experimentalmente. Pelo menos até hoje!

Destacar uma teoria abstrata como a mecânica quântica em um ensaio cujo título menciona um país rico é minha maneira de dar ênfase à constatação de que está no conhecimento a verdadeira riqueza de um país. 

sexta-feira, 10 de janeiro de 2014

Internet para as máquinas


Ninguém duvida que a Internet tenha sido uma das criações mais importantes de toda a história, com um impacto imenso em nossas vidas. Poucas inovações alteraram de maneira tão marcante a forma de viver dos humanos, por afetar todo tipo de atividade.

Apesar de reconhecer a maravilha e a utilidade da Internet, constatei com surpresa uma limitação sua crucial: a Internet foi feita só para os humanos, e não pode ser usada pelas máquinas (não facilmente pelo menos!). Percebi essa limitação após o físico Tim Berners-Lee criar o conceito de Web Semântica, que explicarei a seguir. Ele, que foi um dos pioneiros da Internet, deve também ter verificado que poderia ter sido mais ousado, e já de início conceber um sistema passível de uso por computadores ou máquinas.

Notem que, a despeito de robôs virtuais poderem fazer busca e agir na Internet, quase sempre é necessária a intervenção humana. Para a maioria esmagadora dos usos que fazemos da Internet, precisamos nós mesmos buscar a informação e processá-la.

Para que pessoas possam ter acesso a páginas na Internet em diferentes línguas e dispositivos de acesso, como computadores diferentes e outros meios, é necessário padronizar. O conteúdo exposto pelo responsável por uma página na Internet é codificado de tal maneira que textos e imagens apareçam com as cores e localizações pretendidas. Apesar dessa padronização, a interpretação do conteúdo só pode ser feita por humanos, pois não há marcas que permitam a uma máquina inferir o que está escrito ou mostrado.

Na concepção da Web Semântica, Tim Berners-Lee – que para mim se redimiu de ter criado uma Internet limitada a humanos – propõe que todo o conteúdo de uma página tenha marcas semânticas, tornando-o passível de interpretação automática por uma máquina.

Para exemplificar os benefícios da implementação de um sistema como o da Web Semântica, discutirei uma aplicação bastante simples. Suponhamos que um grupo de 10 casais fosse a um casamento em outra cidade. Eles poderiam contratar um agente de viagens que teria a seguinte missão:
i) Reservar os 10 quartos de hotel, preferivelmente no mesmo hotel para todos, e que seja próximo do local do casamento.
ii)    Organizar transporte do aeroporto até o hotel ou hotéis.
iii) Marcar horários em salões de beleza para as 10 esposas. Como são muitas, provavelmente seria necessário utilizar mais de um salão.
iv)  Organizar transporte para as esposas até os salões de beleza e de volta para o hotel. Aqui é essencial garantir que todas voltem a tempo para o casamento, o que também requer que a localização dos salões seja conveniente.
v) Como os maridos terão tempo livre, querem assistir a um jogo de futebol na televisão, em um canal pago de esportes que provavelmente não está disponível no hotel (ou hotéis). O agente deve verificar a disponibilidade, e se não houver, reservar mesa num bar de esportes em que o jogo será mostrado. Também é necessário organizar transporte e escolher um bar em local conveniente.

Provavelmente o agente usará a Internet para todas essas tarefas. Devido à necessidade de sincronização e verificação da duração de alguns eventos, é quase certo que alguns agendamentos serão feitos por telefone. Apesar de serem tarefas muito simples, hoje apenas um agente humano consegue realizá-las.

Com a Web Semântica, a expectativa é que um agente “virtual”, de software, pudesse cuidar de todas as tarefas mencionadas. Não é difícil imaginar que as informações nas páginas de hotéis, salões de beleza e agências de táxi teriam que ser mais completas do que são hoje. E o mais importante, que as informações pudessem ser processadas por uma máquina, o agente virtual em nosso caso.

Embora continue achando a ideia genial, não acredito que a Web Semântica possa ser implementada como inicialmente proposta. A grande dificuldade está na necessidade de que todo o material colocado na Internet seja recodificado. Na época da proposição da Web Semântica, em 2001, a Internet era relativamente recente e talvez fosse viável iniciar novas páginas já com a codificação semântica. Isso seria impossível hoje.

De qualquer forma, talvez o leitor tenha percebido que – mesmo sem Web Semântica – estamos nos aproximando de agentes virtuais como o mencionado acima. Basta lembrar dos aplicativos que surgem a cada dia, principalmente para os telefones celulares. São inúmeras as tarefas que podem ser executadas para facilitar nossas vidas, incluindo a escolha de melhores rotas para evitar congestionamentos e informação sobre restaurantes nas imediações.


Seja com um conceito como a Web Semântica ou com aplicativos cada vez mais sofisticados, os agentes virtuais só serão úteis se puderem se comunicar conosco em língua natural. Pois queremos passar instruções como escrevi na especificação da tarefa relacionada ao casamento acima, por texto ou fala. Se a comunicação com o agente virtual exigir conhecimento de sistemas computacionais e muitas interações com o usuário, será mais fácil executarmos as tarefas nós próprios. Como fazemos hoje com a nossa limitada Internet.  

terça-feira, 7 de janeiro de 2014

A comunicação com a sociedade

Cientistas e pessoas públicas têm o dever de prestar contas à sociedade que financia suas atividades, num processo de comunicação que também deve ter caráter instrutivo. Pois é essencial que a sociedade esteja bem informada para tomar decisões sensatas acerca de questões polêmicas sobre desenvolvimento e tecnologia.

Um exemplo recente de comoção nacional que pode levar a más decisões foi o ataque a um instituto de pesquisa que usava cães em seus experimentos. A partir de imagens chocantes de animais amedrontados, surgiu toda sorte de apelos para proibição de experiências científicas envolvendo animais. É lógico que tais experiências precisam ser acompanhadas rigorosamente, com regras éticas claras e restritivas. Entretanto, uma análise ainda que superficial sobre o desenvolvimento de novos fármacos e de métodos que fizeram a medicina avançar enormemente nos últimos anos indica claramente que testes com animais são imprescindíveis. O argumento de que se quisessem os cientistas poderiam substituir tais testes não se sustenta.

As duas alternativas aos testes com animais teriam conseqüências catastróficas. A primeira seria simplesmente não desenvolver novos fármacos, que sempre requerem testes antes de sua comercialização. Epidemias e pandemias poderiam se proliferar com uma mortalidade sem precedentes. Em tempos de globalização, com pessoas se locomovendo de um continente a outro com grande frequência, novas doenças para as quais ainda não haja remédios eficazes seriam espalhadas. De particular interesse nesse aspecto seriam as doenças causadas por bactérias que se tornam resistentes a antibióticos. Sem a criação de novos fármacos, em poucos anos tais bactérias poderiam dominar nosso mundo. Pareceria com aqueles casos de filmes de ficção, em que a Terra é dominada por algum tipo de ser – terrestre ou extra-terrestre.

A outra alternativa, de conseqüências não menos catastróficas, seria testar novos fármacos diretamente em humanos. Além do óbvio problema de que qualquer efeito colateral não previsto pode trazer danos irreversíveis à saúde das cobaias humanas, tais testes não seriam eficazes pela falta de rigor científico. Isso porque nos testes de fármacos, os animais utilizados são concebidos e criados com alto grau de controle, para que se possa efetivamente identificar os efeitos dos novos remédios. Não são animais reunidos aleatoriamente para os testes. Esse controle seria impossível fazer com humanos!

A necessidade de múltiplos testes para a eficácia e segurança de medicamentos e procedimentos clínicos em geral é justificada pela complexidade do problema científico-tecnológico. Colocar um novo fármaco no mercado pode custar hoje mais de 1 bilhão de reais, e demorar mais de uma década, devido à longa cadeia de pesquisas e testes.

O desenvolvimento de um novo fármaco passa por pelo menos 5 etapas: Na primeira, as moléculas candidatas a fármaco – que poderão se tornar o princípio ativo de um novo remédio - têm suas propriedades estudadas em simulações computacionais. Normalmente são testadas dezenas ou até milhares de moléculas de uma família que se prevê ter um efeito medicinal. Tais moléculas podem nem existir, ou seja, nem terem sido sintetizadas (produzidas em laboratório), uma vez que as simulações são feitas com base na sua estrutura química. Dentre as mais promissoras, algumas são selecionadas para serem sintetizadas e estudadas em laboratório para verificar sua atuação enquanto princípio ativo.

Os testes de princípio ativo merecem descrição mais detalhada. Antes de verificar ação em animais ou humanos, há que observar se os candidatos a fármacos interagem com componentes celulares como preconizado na concepção do remédio. Por exemplo, um remédio para combater bactérias pode fazê-lo destruindo a membrana dessas bactérias, e portanto são realizados experimentos – em nível molecular – para verificar tal efeito. Esta pode ser considerada a segunda etapa do desenvolvimento de um fármaco. Na terceira etapa, são feitos os chamados testes in vitro, em que se confirma que os candidatos a fármaco de fato matam as bactérias em culturas sobre placas de vidro.

Os testes in vivo correspondem à quarta e quinta etapas, em animais e humanos, respectivamente. Estas etapas são, obviamente, as mais demoradas e caras. Dependendo do tipo de remédio que está sendo criado, diferentes modelos animais precisam ser usados, normalmente iniciando-se com camundongos e podendo incluir primatas, cujas características fisiológicas são mais próximas das dos humanos. Para antibióticos tomados como exemplos, deve-se garantir que sejam nocivos às bactérias mas não às células do corpo humano. Infelizmente o comportamento de um remédio nos testes in vitro pode não ser o mesmo do que nos animais e nos humanos, de maneira que não há como prescindir dos testes in vivo.


O leitor deve ter notado a complexidade do desenvolvimento de um novo remédio, mesmo com uma descrição tão simplificada como a apresentada acima. Quando a sociedade precisar tomar decisões difíceis, como as relacionadas a testes com animais e humanos, é crucial estar bem informada. 

quarta-feira, 1 de janeiro de 2014

Precisão de um relógio atômico para um encontro amoroso

Não pode haver encontro a ser levado mais a sério do que um encontro amoroso, em que é crucial a pontualidade – e obviamente ir ao local correto. Com que precisão é necessário ser pontual para tal encontro? A maioria de nós dirá que a precisão de um minuto é suficiente, e assim bastaria ter um relógio de pulso comum ou mesmo um telefone celular, marcando a hora certa.

Discordo. Nos dias de hoje, precisamos de um relógio atômico. Explico o porquê.

Muitos de nós usamos serviços de GPS (da sigla global positioning system) para nos dirigirmos a qualquer local aonde não vamos regularmente. E o GPS não funcionaria corretamente se não fosse baseado na utilização de relógios atômicos, como enfatizado no ensaio anterior. Ou seja, indiretamente precisamos de relógios atômicos para chegar pontualmente no local do encontro, a despeito de que não tenhamos a pretensão de uma precisão de nanossegundos.

Afinal, o que é um relógio atômico? Inicio a explicação relembrando o conceito de medida de tempo, que pode ser feita a partir de qualquer fenômeno periódico. Pode ser o período de rotação da Terra, da oscilação de um pêndulo ou de gotas d’água que caem de uma torneira mal fechada. É fácil compreender que a precisão de tal medida dependerá basicamente de duas coisas: a regularidade do fenômeno e a frequência com que se repete. No caso da torneira, por exemplo, uma inspeção simples mostrará que o pingar das gotas não é tão regular quanto se gostaria para medir tempo. Por isso, ninguém pensaria em usá-lo. No que tange a frequência, fenômenos que acontecem com baixa frequência não permitem medir tempos muito pequenos, ou com muita precisão. Como medir evento que dure um microssegundo (1 milionésimo de um segundo) se o período de oscilação de um pêndulo é da ordem de um segundo?

Para os relógios de pulso, um grande avanço em precisão foi alcançado há algumas décadas com a utilização de cristais de quartzo, que são materiais com propriedades piezelétricas. Um material piezelétrico gera um sinal elétrico ao sofrer pressão, e também apresenta o efeito inverso. Ou seja, ele se expande ou contrai sob estímulo elétrico. Ao excitar um cristal de quartzo com um sinal elétrico periódico, numa determinada frequência, denominada frequência de ressonância, observa-se máxima vibração ou efeito piezelétrico.

Para usar uma frequência de referência na medida do tempo, contam-se os ciclos de vibração do cristal de quartzo durante um evento, e compara-se com a frequência de ressonância do cristal (a usada nos relógios é de 32.768 oscilações por segundo, isto é, 32.768 Hz). Um exemplo de contagem simples é o de um fenômeno que ocorre uma vez por segundo, isto é, com frequência de 1 Hz. Se a contagem der 60 ciclos, significa que a duração do evento foi de 60s.

Um relógio atômico funciona segundo princípios muito semelhantes ao do relógio de quartzo. A grande diferença está no fenômeno físico responsável pela ressonância. Ao invés de ser a resposta a um estímulo macroscópico como no cristal de quartzo, num relógio atômico átomos são excitados por ondas eletromagnéticas e são observadas transições eletrônicas de acordo com a teoria quântica. Por isso são chamados de relógios atômicos.

Também relevante é que a frequência de referência é muito mais alta. Nos relógios atômicos mais usados, empregam-se átomos de césio-133 cuja frequência é 9.192.631.770 Hz. Ou seja, para 9.162.631.770 oscilações, o relógio interpreta que se passou um segundo, o que garante precisão muito maior. Para comparar, um relógio baseado no movimento de rotação da Terra atrasaria um segundo por ano, enquanto os relógios atômicos mais precisos levariam 30 milhões de anos. A altíssima precisão de relógios atômicos é essencial para controlar a frequência das ondas de transmissores de televisão e para os sistemas de navegação por satélite.

Se você se guia por um GPS para chegar a tempo num encontro amoroso, está se aproveitando do trabalho de muitos pesquisadores que desenvolveram e desenvolvem relógios atômicos.