segunda-feira, 10 de março de 2014

Igualdade e Redes Sociais

A busca pela igualdade entre humanos tem sido uma constante nos últimos tempos, especialmente após a revolução francesa no final do Século XVIII.  O Século XX foi particularmente promissor, neste aspecto, com a criação da Organização das Nações Unidas, estabelecimento de tratados de direitos universais, respeito aos direitos da mulher, e imposição de leis contra o racismo em alguns países, como o Brasil. Num mundo ideal deveríamos extinguir as divisões de classes sociais, propiciar a toda e qualquer criança no mundo as oportunidades materiais e de educação para se tornarem cidadãos com igualdade de condições àqueles das nações mais ricas.

É desnecessário enfatizar que estamos longe da situação ideal, tanto no que diz respeito às diferenças entre países desenvolvidos e os demais, como às incríveis diferenças sociais e econômicas dentro de um mesmo país. Temos a obrigação ética de perseverar para diminuir as diferenças, e para tanto talvez devêssemos lembrar-nos de usar o conhecimento científico para analisar situações e propor políticas públicas.

Para criar uma sociedade equânime, seus membros precisam ter as mesmas condições materiais e oportunidades, como é óbvio. O que pode passar despercebido é que a igualdade também requer que os membros tenham habilidades e talentos semelhantes, que possam se apropriar de conhecimento e riqueza com a mesma capacidade. E isso é muito difícil! Daí a necessidade de estudar as diferenças e adotar políticas que permitam ainda assim buscar uma sociedade justa. Regimes políticos implantados para impor igualdade não foram bem-sucedidos, talvez porque tenham ignorado tais diferenças e nem levado em conta que é da natureza humana comparar com os mais próximos. Uma sociedade não funciona se todos receberem os mesmos benefícios, independentemente de seus esforços.

Sabemos por intuição que os humanos são intrinsecamente diferentes. Que nossos talentos para esporte, música, arte, podem variar enormemente. Que nossa capacidade de aprender também varia muito, e pode depender do tipo de assunto a ser aprendido. Não há, entretanto, prova científica irrefutável baseada na biologia dessas diferenças. Não é possível quantificar nossas habilidades para uma ou outra coisa. Existem testes de inteligência – como também testes físicos – que podem distinguir-nos uns dos outros, mas eles não são determinantes nem para atividades próximas às das habilidades que estão supostamente medindo. Ainda mais difícil de identificar é a origem de nossos talentos e habilidades; se são oriundos de herança genética ou se foram adquiridos apenas por treinamento.

Diante da impossibilidade de analisar as diferenças diretamente, podemos optar por investigar fenômenos que indiretamente apontam para a falta de igualdade.

Para tanto, dou grande salto de assuntos e menciono uma pesquisa do final dos anos de 1990 sobre a rede de páginas na Internet, quando o cientista Albert-László Barabási, nascido na Romênia e radicado nos Estados Unidos, criou o conceito de redes livres de escala. A principal característica dessas redes é que há alguns nós com um número enorme de conexões, ao passo que a maioria esmagadora de nós tem pouquíssimas conexões. Em outras palavras, se conexões forem consideradas como “riqueza”, há poucos nós extremamente ricos na rede, enquanto a maioria é muito pobre.

Barabási descobriu que a Internet, em que cada página é um nó e as conexões são os links entre páginas, é uma rede livre de escala, com essa má distribuição de riqueza. Observou também que para se construir uma rede desse tipo, deve-se distribuir riquezas de uma maneira que podemos considerar perversa para quem busca igualdade. Pois toda vez que uma nova conexão será acrescentada, a probabilidade de se conectar a um nó é proporcional ao número de conexões que o nó já tem. Isso implica que nós que já têm muitas conexões terão maior probabilidade de receber mais, segundo o paradigma que ficou conhecido como “o rico fica mais rico”.

Há modelos matemáticos precisos que explicam as redes livres de escala, que são muito mais frequentes do que se poderia imaginar. Pesquisadores do mundo todo se debruçaram sobre a questão e verificaram que redes representando sistemas das mais diversas áreas são livres de escala. Alguns exemplos são redes sociais, como as dos atores de Hollywood e de co-autoria em artigos científicos, redes de interação entre proteínas num organismo, redes de aeroportos e redes representando textos escritos. Numa rede de aeroportos, cada nó é um aeroporto e as conexões são os voos entre aeroportos. A maneira mais eficiente de gerir o tráfico aéreo acabou por criar alguns poucos aeroportos (os chamados “hubs” em inglês) com muitos voos, enquanto aeroportos periféricos são a maioria. Quando se analisam os dados de números de voos, nota-se que a rede tem a distribuição típica de rede livre de escala.

O que se pode depreender das constatações é que a distribuição de riquezas nos sistemas representados por redes é majoritariamente não igualitária, favorecendo a quem tem mais para gerar redes livres de escala. Redes com distribuição mais igual entre nós são minoria. Isso se aplica para sistemas naturais – como a rede de interações entre proteínas – e a sistemas produzidos pelo homem. Uma consequência essencial da má distribuição de riquezas é que os nós mais conectados (os hubs) tendem a ser muito mais importantes que nós periféricos, com poucas conexões. Quando se estuda a propagação de uma doença com um modelo baseado em rede, em que cada indivíduo é um nó, há que se identificar os nós principais (hubs) e ter cuidado especial com eles. A eliminação de uma epidemia deve depender muito desses hubs, enquanto nós periféricos não teriam quase nenhuma relevância.

Considerando que humanos se organizam em redes sociais, de amizade, no trabalho, no lazer, e que a maioria dessas redes deve ter distribuição de conexões (riqueza!) desigual, como numa rede livre de escala, é irrefutável a diferenciação dos indivíduos. Dessa análise resta admitir que é impossível atingir igualdade.

A área de pesquisa que trata as redes livres de escala é denominada de redes complexas, numa mescla de metodologias de física estatística e da teoria dos grafos da matemática. Dessas pesquisas participam profissionais de diversos campos, principalmente físicos, matemáticos e cientistas da computação. Devido à generalidade da abordagem de redes complexas, que podem modelar fenômenos e sistemas diversos, há a esperança de que aprendamos como tornar nosso tecido social, afinal uma grande rede, mais justo.


E que o inevitável paradigma do “rico fica mais rico” possa ser compensado com a generosidade, que é uma das qualidades mais nobres dos humanos.

sábado, 1 de março de 2014

Aprendendo a escrever em inglês


O inglês se tornou a língua franca para os negócios, turismo e ciência, e precisa ser dominada com proficiência por quase todo tipo de profissional de alto nível. Isso vem exigindo enorme esforço da comunidade internacional, uma vez que menos de 10% da população têm o inglês como primeira língua. O aprendizado de uma segunda língua, principalmente se não for para crianças de tenra idade, requer muita dedicação.

As dificuldades no aprendizado de uma segunda língua são de várias naturezas, e se manifestam tanto na recepção quanto na produção da língua. Na recepção, o mais fácil é a leitura, pois o conhecimento do vocabulário e de estruturas gramaticais pode ser suficiente para a compreensão de um texto. Compreender a língua falada já é mais complicado porque envolve treinamento do ouvido e adaptação a diferentes sotaques. Mesmo a dificuldade de decifrar as palavras pronunciadas é relevante. Ainda que o ouvinte conheça o vocabulário da língua estrangeira, pode não conseguir perceber as palavras ou expressões que estão sendo ditas. Especialmente difícil é compreender música em língua estrangeira, a não ser que o aprendiz tenha sido treinado.

Para a produção falada ou escrita em língua estrangeira há dificuldades adicionais. Além de conhecer o vocabulário e ter noções de gramática, o aprendiz precisa saber empregá-los com proficiência e rapidez. Para atingir fluência, é imprescindível pensar na língua estrangeira, e não meramente traduzir o que pensou em sua primeira língua.

A influência da língua materna é, a propósito, uma das maiores limitações para a escrita de qualidade. Não é incomum que após muito estudo um aprendiz conheça o vocabulário e a gramática de uma segunda língua, mas ainda assim escreva sentenças que soam estranhas para qualquer nativo da língua, mesmo que estejam corretas gramaticalmente. 

A situação incômoda de não ser capaz de produzir bons textos após longos anos de estudo de uma língua estrangeira parece atingir muita gente, especialmente no meio acadêmico em que há exigência de uso sofisticado do inglês. Este problema enfrentei durante o doutorado, e da necessidade surgiu uma estratégia que se mostrou eficaz, que agora é ensinada em cursos de escrita científica na Universidade de São Paulo (USP).

A estratégia consiste em um treinamento intensivo de leitura de textos bem escritos em inglês (preferencialmente por nativos da língua), com anotação da função de expressões e sentenças. Em outras palavras, o aprendiz deve ler cuidadosamente o texto anotando como expressões transmitem conceitos e ideias. De certa forma, esta é uma extensão da crença (correta!) de que para escrever bem é necessário ler muito. Mas não basta ler muito; é importante que a leitura seja meticulosa e sistemática. Para o aprendizado da escrita, deve-se concentrar mais na forma do que no conteúdo do que está escrito, e assim incorporar as expressões ao cabedal de conhecimentos.

Uma maneira prática de utilizar a estratégia acima é preparar material específico, a partir dos textos selecionados. Para facilitar o estudo sistemático, convém classificar o material que está sendo lido de acordo com a função, a que chamamos de função retórica, e de sua posição no texto. Vou exemplificar com o texto de um artigo científico, mas as ideias gerais podem ser estendidas para outros gêneros.

Um artigo científico, nas áreas de ciências experimentais, engenharia e computação, contém geralmente seis seções: resumo, introdução, metodologia, resultados, discussão e conclusão. Cada uma dessas seções é dividida em subcomponentes, que perfazem a estrutura global do artigo. Por ser uma versão reduzida do artigo, o resumo contém subcomponentes que reproduzem essencialmente os componentes das demais seções, ou seja, tem uma introdução, metodologia, resultados, discussão e conclusão. A introdução, por sua vez, deve conter contextualização do trabalho de pesquisa, revisão da literatura e apresentação do conteúdo do artigo, incluindo o objetivo principal da pesquisa. A própria identificação dos subcomponentes das seções é um exercício rico de aprendizado, independentemente da língua em que está escrito.

Na sistematização da coleta de textos, o aprendiz deve classificar sentenças e expressões do material de referência, escrito por nativos da língua inglesa, de acordo com as seções e subcomponentes. Deve também marcar frases ou expressões que servem funções como descrever, contrastar, explicar, definir, ressaltar, etc. É importante que o aprendiz saiba escrever em inglês o que gostaria de fazê-lo em sua primeira língua.

Ao classificar e anotar o material, deve-se destacar partes das sentenças que são genéricas, não diretamente associadas ao conteúdo transmitido no texto. Isto é, são expressões que podem ser aprendidas e utilizadas em outros contextos. Por isso, um bom exercício é apagar as informações factuais do texto, deixando apenas as partes genéricas, e tentar preencher as lacunas com seu próprio material escrito.

Uma vez compilado um bom volume de material, que segundo minha experiência deve ser de 40 a 50 páginas de textos com expressões classificadas, e o aprendiz ter treinado o preenchimento das lacunas, chegou a hora de cuidar de parágrafos e trechos mais longos de texto. Aqui é importante garantir coesão, com ideias que fluem sem quebras bruscas de ritmo. Para tanto deve-se treinar o uso de conectivos entre sentenças, como however (entretanto), in addition (além disso), on the other hand (por outro lado).

Em todos os casos, deve-se conferir não apenas se as sentenças produzidas estão corretas gramaticalmente mas também se elas estão de acordo com o que nativos escrevem. É nisso que o material de referência pode ser tão útil.

Essa estratégia de aprender fazendo a partir de um material de referência tem respaldo na linguística aplicada, mais precisamente numa área denominada linguística de corpus. O material de referência é, de fato, chamado de corpus – que é uma coleção de textos estruturada e anotada. Ressalte-se o pressuposto que o aprendiz já tenha um nível mínimo de inglês, inclusive com conhecimento de gramática. Pois seria impossível requerer que ele reconheça material bem escrito em inglês, se já não souber ler com certa proficiência.


O leitor deve ter percebido que a tarefa de construir um corpus, e aprender inglês a partir de seu uso sistemático, não é simples nem rápida. É no mínimo tediosa e exige muito tempo e dedicação. Mas não há outro jeito. Não existem fórmulas mágicas para alguém aprender a escrever em inglês rapidamente e com pouco esforço! 

quarta-feira, 19 de fevereiro de 2014

Degustando café com uma língua eletrônica


O verbo degustar virou sinônimo de alta qualidade de vida, de maneira que a princípio não veríamos vantagem em repassar o prazer da degustação para um dispositivo eletrônico. Um dos grandes desafios dos tempos modernos, entretanto, é colocar as novas tecnologias a nosso serviço, sem delas nos tornarmos escravos. Acredito que isso possa ser feito com uma língua eletrônica.

Uma língua eletrônica tenta imitar o que faz uma língua humana, cujos sensores de paladar representados pelas papilas gustativas enviam ao cérebro sinais que são a combinação dos chamados sabores básicos: doce, amargo, azedo e salgado (os asiáticos incluíram umami, que corresponderia ao sabor de peixe cru, como um quinto sabor básico). Isso quer dizer que não detectamos substâncias químicas específicas ao saborear algo. Nossos sensores não têm seletividade para identificar cada uma das substâncias que provamos. Apesar disso, temos grande capacidade de reconhecimento dos diversos sabores. O café é constituído por dezenas de elementos e substâncias químicas, e nossa língua consegue reconhecê-lo prontamente sem identificar uma dessas substâncias sequer.

Na prática, a língua eletrônica é feita de um conjunto de sensores que são imersos no líquido que se quer identificar. Cada sensor contém uma película muito fina, de espessura nanométrica, depositada sobre eletrodos metálicos que permitem realizar medidas elétricas. Para estas medidas, aplica-se um sinal elétrico no eletrodo e mede-se a resposta que dependerá do tipo de líquido. O material empregado na película deve ser escolhido de acordo com a aplicação. Por exemplo, se queremos verificar pequenas diferenças de acidez num líquido, empregamos um material cujas propriedades elétricas variam bastante com o pH (isto é com a acidez). Usam-se vários sensores para ter variedade na resposta e assim formar uma “impressão digital” de cada líquido estudado.

A grande vantagem da língua eletrônica sobre a humana está na sensibilidade, pois é possível detectar sabores com muito maior precisão. Apenas a título de ilustração, menciono que se adicionarmos sal à água pura, a língua eletrônica consegue perceber que há sal muito antes de qualquer humano. Após a língua eletrônica detectar o sal, seria necessário aumentar a concentração mil vezes para que o humano perceba. É de se imaginar que se a língua eletrônica é tão sensível, então deve ser capaz de distinguir líquidos muito parecidos. Isso realmente acontece, pois com uma língua eletrônica pode-se distinguir diferentes tipos de café, vinhos de safras diferentes, marcas distintas de água de coco, além de muitos outros tipos de bebidas.

Logo após o surgimento de línguas eletrônicas, especulava-se se elas poderiam definir o que é gostoso ou não. Porque a análise do sinal elétrico permite apenas saber que um líquido é diferente do outro. Mas com o emprego de métodos de inteligência artificial, mais precisamente de aprendizado de máquina, é possível ensinar à língua eletrônica o que é um sabor gostoso. Numa experiência realizada pela USP de São Carlos e a Embrapa Instrumentação, também de São Carlos, verificou-se que uma língua eletrônica treinada podia adivinhar a nota atribuída por um degustador de café profissional. A propósito, identificar os chamados cafés gourmet era uma tarefa fácil para a língua eletrônica, o que provavelmente indica um alto controle de qualidade na produção desse tipo de café no Brasil.

Sempre aparecem polêmicas na divulgação de tecnologias que podem substituir humanos. No caso da língua eletrônica, a tecnologia seria auxiliar ao trabalho que degustadores e outros profissionais realizam no controle de qualidade de alimentos e bebidas. Para ensinar o que é bom ou ruim a uma língua eletrônica, há que se empregar dados fornecidos por especialistas humanos, que são insubstituíveis. 

Além disso, a característica “eletrônica” da língua traz outras implicações. Esse dispositivo eletrônico pode ter muitas outras funções que os humanos não podem ou não querem fazer. Por exemplo, pode-se usar uma língua eletrônica para testar sabor amargo de remédios em tentativas de deixá-los mais palatáveis. Pode-se empregá-la no controle ambiental e qualidade de águas, inclusive com detecção de pesticidas ou metais pesados nocivos à saúde.


A tecnologia por trás da língua eletrônica é uma combinação de nanotecnologia, importante para a escolha dos materiais adequados aos sensores obtidos a partir de películas de dimensões nanométricas, com métodos computacionais. Estes últimos, especialmente aqueles oriundos da inteligência artificial, são essenciais para o poder de discriminação de uma língua eletrônica. É mais um exemplo de aplicação que só se torna possível com convergências de tecnologias. 

terça-feira, 11 de fevereiro de 2014

A incrível estória do menino que enxugava gelo


Era uma vez um menino muito inteligente, apaixonado por ciência e que sabia da necessidade de juntar economias para sua educação. Resolveu então usar seus conhecimentos científicos para ganhar dinheiro e fez fortuna enxugando gelo. Ou melhor, ganhou muito dinheiro em apostas, desafiando a quem se aventurasse que ele tinha encontrado uma maneira de enxugar gelo.

Veio gente de toda a parte para o desafio. O menino preparou um sistema simples, com uma forma de gelo furada ligada a um estreito canal. Ele apostava que conseguia enxugar gelo de tal maneira que o canal nem molhado ficava. E ganhava aposta após aposta, de valores cada vez mais altos. Os perdedores não contavam o segredo por vergonha de terem sido derrotados por um menino.

Afinal, qual era a mágica ou método científico que o menino havia descoberto? Ora, não havia mágica nenhuma. Era só um detalhe na formulação da aposta, pois o menino não especificava a escala de tempo. Só após iniciada a contenda é que ele dizia que seu método de enxugar gelo – com um simples pedaço de pano - era perfeito para a escala de segundos. Obviamente que o gelo não se derreteria em segundos e – a propósito - enxugar com o pano não fazia diferença! Para aqueles apostadores dispostos a pagar mais caro, desafiando o menino a enxugar gelo que já se estava derretendo, o menino era obrigado a usar uma escala menor do que segundos para poder ganhar. Mas a vitória era certa: bastava escolher a escala correta.

Resolvi contar esta estória para ressaltar a importância de escalas, em ciência e em nosso cotidiano. O ouro é dourado, como todo mundo sabe, quando em peças macroscópicas, ou seja, em anéis, correntes e barras. Porém, nanopartículas de ouro são avermelhadas, e sua cor pode variar com o tamanho e formato das partículas. Sabemos que o sol vai se acabar, e com ele a vida na Terra, mas não nos preocupamos pois isso só ocorrerá na escala de bilhões de anos.  

Em nosso dia a dia, podemos continuar usando a metáfora de “enxugar gelo”, na medida em que pensamos numa escala de minutos ou dezenas de minutos em que certamente o gelo em temperatura ambiente (20 ou 30ºC) derreterá. Em muitas decisões da sociedade, entretanto, seria essencial levar em conta a escala de tempo ou de investimentos.

Tomo como exemplo o problema mais grave no Brasil de hoje, que é a educação. As políticas e ações em educação são concebidas para alguns poucos anos, uma vez que as eleições majoritárias acontecem a cada quatro anos. As políticas em educação de que precisamos, que levariam muito mais tempo para dar resultado, não têm, portanto, chance de serem adotadas. A principal medida seria o aumento considerável nos salários dos professores, como já defendi em outro ensaio. Mas isso não daria resultado em menos de 10 ou 20 anos, porque é necessário treinar e formar professores, alterar paradigmas de nossas escolas – o que só é possível fazer com professores valorizados e bem pagos.

Uma dificuldade adicional é a escala de investimentos requeridos para dar aumentos de salários significativos. Uma vez que a folha salarial é de longe o item mais relevante no orçamento da educação, dobrar salários, por exemplo, corresponde a quase dobrar o orçamento. Muito mais barato e atraente politicamente é criar vários programas e subprogramas: de construções e melhorias de escolas, de merenda, de material escolar, de equipamentos, de atividades extraordinárias, e assim por diante. Podem ser inúmeros programas, por mais importantes, necessários ou justificáveis que sejam, ao custo que corresponderia a um aumento substancial nos salários dos professores.

Sem que a sociedade compreenda as diferenças de escala e se convença que - a persistirem os problemas graves de educação - o Brasil não tem futuro, continuaremos convivendo com repetidas políticas que nada mais são do que um eterno “enxugar de gelo”.


sexta-feira, 7 de fevereiro de 2014

Pode ser quântico o computador do futuro

Já não vivemos sem computador. Além das máquinas que hoje recebem diferentes nomes, como microcomputador, computador portátil e outros nomes em inglês que acabamos por adotar, quase todos os aparelhos eletrônicos têm processadores. Estes processadores são os ingredientes essenciais dos computadores: são eles que “computam”. É interessante, aliás, notar uma mudança semântica no uso da palavra computador. Para os primeiros automóveis ou aviões que empregavam computadores, dizíamos que eles tinham computador de bordo. Hoje ninguém se lembra disso, pois cada carro ou avião tem inúmeros computadores (processadores) dentro de si.

Muitos têm sido os avanços na produção de computadores nas últimas décadas. Comecemos pela tela. Por longo tempo, empregou-se uma tecnologia antiga, com tubos de raios catódicos ou tubos de televisão, que já tem mais de cem anos. Devido ao princípio de funcionamento, não era possível obter tela fina e leve. Hoje, praticamente todos os novos computadores têm tela de cristal líquido (denominadas LCD, do nome em inglês “liquid crystal display”), e em breve poderão se popularizar as telas de diodos emissores de luz, denominadas de telas LED, da sigla em inglês “light emitting diode”. As telas de TV com LED usam semicondutores inorgânicos, materiais rígidos. Como já comentei neste espaço, já há tecnologia para produzir telas de plástico luminescente, o que permitirá obter telas flexíveis.

A capacidade de processamento também evoluiu enormemente, o que permite hoje a um telefone celular realizar tarefas que só computadores de grande porte poderiam fazer nos primórdios da computação. Isso vem acompanhado do aumento de capacidade de memória, principalmente com os novos materiais produzidos pela nanotecnologia (vide ensaio “Nanotecnologia chega ao Nobel”).

A evolução fantástica da capacidade computacional nos últimos anos, com aparelhos cada vez menores e mais poderosos, se deve ao aprimoramento na produção e controle de novos materiais. Isso só é possível com conhecimentos da teoria quântica, como já enfatizei mais de uma vez. Entretanto, o processamento e armazenamento da informação ainda se baseiam em processos explicados pela física clássica. Ocorre que as informações num computador atual (que chamamos de clássico) são armazenadas e lidas em materiais segundo as leis do eletromagnetismo clássico. Os estados lógicos binários 1 e 0 são definidos dependendo se há passagem ou não de corrente elétrica, ou se uma certa região está magnetizada ou não.

Há alguns anos propôs-se o desenvolvimento de um computador quântico, em que a lógica binária seria substituída aproveitando-se de uma propriedade interessante da mecânica quântica. Ao contrário da mecânica clássica para um sistema de dois estados em que uma entidade física só pode ocupar o estado “1” ou o estado “0”, na mecânica quântica existem infinitas possibilidades porque a entidade pode em princípio ocupar os dois estados simultaneamente.

Uma analogia é a de um livro que pode ser colocado em uma de duas prateleiras de uma estante. A uma prateleira atribuímos o estado “0” e à outra o estado “1”. Logicamente, no nosso mundo clássico o livro ou está em “1” ou em “0”. Já a mecânica quântica permite como solução a superposição dos estados, como se uma parte do livro pudesse estar na prateleira “0” e o restante na prateleira “1”. A possibilidade de dividir em 2 partes arbitrárias fornece a infinidade de soluções.

Assim, ao contrário do computador clássico cuja memória é feita de bits que podem guardar apenas "1" ou "0" de informação, um computador quântico mantém um conjunto de qubits (do inglês, quantum bit) que podem conter "1", "0" ou uma sobreposição destes estados. É o chamado paralelismo quântico que permite executar operações simultaneamente, aumentando enormemente a capacidade de processamento de informação. Há previsões de que um computador quântico poderá processar um milhão de operações enquanto um clássico poderia processar uma única.

Os sistemas físicos que representarão os qubits podem, em princípio, ter dimensões menores do que os elementos de circuito de um computador clássico, podendo ser inclusive núcleos de átomos. Isso permitiria miniaturização sem precedentes na história do computador, mas embute a maior dificuldade de fabricação de um computador quântico eficaz: a manipulação e verificação do estado de cada um desses sistemas físicos nos qubits. Por isso, um computador quântico ainda não está disponível para uso em larga escala, e não se tem previsão de quando poderá estar.

Das pesquisas em computação quântica, todavia, já há resultados concretos e usados pela sociedade. Trata-se da criptografia quântica, com a qual informações são criptografadas com muito mais segurança de que com os métodos clássicos atuais. A propósito, espera-se que um computador quântico possa descobrir as senhas criptografadas com os métodos clássicos. Isso significa que se um grupo de cientistas desenvolver um computador quântico com essa capacidade, todo o sistema de comércio e bancário estaria sob risco caso esses pesquisadores fossem mal intencionados. A solução seria imediatamente substituir todo o sistema com criptografia quântica, cujas senhas não poderiam ser quebradas. 


Eu particularmente não me preocupo com essa possibilidade de colapso. Na história da ciência não parece haver casos de grandes cientistas que usem seus inventos deliberadamente para o mal. Há logicamente casos em que as invenções foram usadas para a guerra, mas sempre havia outros objetivos que supostamente seriam benéficos. Felizmente os cientistas do mal ficam nas obras de ficção. 

sábado, 25 de janeiro de 2014

As forças da Natureza


Imagino que a maioria das pessoas responderia que são inúmeras as forças que existem na Natureza. Alguns pensarão no uso corriqueiro da palavra "força", mencionando forças do bem, do mal, ocultas, de vontade, de expressão. Mesmo ficando no campo das forças em física, contaríamos a força elétrica, magnética, da gravidade, de contacto, de atrito, elástica.

Pois bem, na verdade há apenas quatro forças na Natureza. E o que pode ser mais surpreendente, apenas duas delas são relevantes em nosso cotidiano.

A força mais familiar é a da gravidade, ou gravitacional. Sua consequência mais perceptível é que corpos tendem a cair no chão, atraídos que são pela Terra. A força gravitacional é sempre atrativa e aparece entre dois corpos quaisquer. Duas pessoas próximas sofrem atração gravitacional, mas isso seria impossível perceber ou medir com os aparelhos que temos à disposição. Ocorre que a força gravitacional é muito pequena, só se manifestando quando pelo menos um dos corpos tem uma grande massa, como a Terra. Por isso, não temos dúvidas que corpos são atraídos pela Terra, mas não entre si (aparentemente!).

As outras três forças da Natureza são a eletromagnética, a nuclear fraca e a nuclear forte. Deixemos por último a força eletromagnética, que é a outra de relevância para o cotidiano. As forças nucleares só agem dentro do átomo, tendo alcance muito pequeno. Por exemplo, o núcleo de um átomo não afetaria o de outro átomo, se dependesse apenas das forças nucleares, pois elas são desprezíveis à distância entre dois átomos. As forças nucleares, fortes e fracas, são responsáveis pela estabilidade do átomo e explicam fenômenos como a radioatividade.

Em ensaio anterior, comentei a necessidade de haver forças nucleares para explicar a estabilidade do núcleo (e do átomo). Um átomo é constituído de um núcleo, onde estão os prótons carregados positivamente e os nêutrons, que não têm carga elétrica, e de elétrons. Como cargas de mesmo sinal se repelem, os prótons no núcleo sofrem repulsão entre si, que é tanto maior quanto mais próximos estiverem. Portanto, para que os prótons não se separem e o núcleo "exploda", forças adicionais devem atuar. Precisam ser atrativas para compensar a repulsão elétrica. São as forças nucleares fortes.

A força restante é a eletromagnética. Ela engloba todas as possíveis forças que podemos imaginar no nosso dia-a-dia, com exceção da gravitacional. A força de atrito, de contacto, elástica, elétrica, magnética, são todas de origem eletromagnética. São manifestações das interações entre átomos e moléculas dos corpos envolvidos na determinada força. Isso quer dizer que a força exercida para empurrar algo, ou para abraçar um amigo, é uma força eletromagnética.

As forças eletromagnéticas podem ser atrativas ou repulsivas. Só são repulsivas em duas situações. Quando participarem cargas elétricas de mesmo sinal ou quando dois corpos tentarem ocupar o mesmo lugar no espaço. É interessante que um conceito macroscópico, como este de dois corpos não poderem estar no mesmo lugar ao mesmo tempo, tenha origem quântica. De fato, essa repulsão extremamente forte é devida ao Princípio da Exclusão de Pauli, um princípio da Mecânica Quântica segundo o qual dois elétrons com as mesmas características não podem estar na mesma região do espaço em dado momento.

A grande variedade de "forças" de origem eletromagnética se deve ao fato de corpos neutros também interagirem entre si. Pois mesmo sendo neutros, tais corpos têm cargas positivas e negativas (obviamente porque são constituídos de átomos com núcleos positivos e elétrons que têm carga negativa) que interagem na escala atômica ou molecular.

Sobre neutralidade, há uma observação curiosa. Se duas pessoas a um metro de distância tivessem 1% de carga líquida em seus corpos, sofreriam uma força de atração (se carregados com sinais opostos) ou repulsão suficiente para erguer a Terra inteira. Tamanha força não aparece devido à neutralidade dos corpos, o que fez com que fenômenos elétricos e magnéticos demorassem a ser descobertos, pois não havia fortes manifestações espontâneas. Somente após o desenvolvimento de dispositivos pelo homem, eletricidade e magnetismo passaram a ter efeitos perceptíveis em muitas situações. Até o século XVIII, tais manifestações eram praticamente limitadas à carga elétrica de materiais por atrito e ao magnetismo em ímãs.

As quatro forças da Natureza estão também no centro de um dos maiores desafios da física. Três dessas forças, a eletromagnética, a nuclear forte e a nuclear fraca, são explicadas pela teoria quântica, que não engloba a força gravitacional. Esta última é explicada pela Teoria Geral da Relatividade. Até hoje não foi encontrada maneira de unificar a Teoria da Relatividade com a Teoria Quântica. Einstein tentou por vários anos e não foi bem-sucedido.


Continuamos à espera de um gênio para resolver esse dilema. 

quarta-feira, 15 de janeiro de 2014

De onde vem a riqueza de um país rico

Há algum tempo publicou-se uma estimativa de que mais de 50% do Produto Interno Bruto (PIB) dos Estados Unidos eram oriundos de tecnologias que dependiam da teoria quântica. Ou seja, tecnologias viabilizadas pelo conhecimento da estrutura da matéria proporcionado pela teoria quântica, como já enfatizado em ensaios anteriores. Não me preocupei em verificar a porcentagem exata e nem se houve variação da percentagem ao longo dos últimos anos, porque é fácil constatar a importância crescente da informática e dos dispositivos eletrônicos em nossa sociedade.

Não tive oportunidade ainda de explicar essa teoria, o que tento fazer agora. Inicio com uma comparação com a mecânica clássica, desenvolvida por Isaac Newton, para explicitar depois as diferenças.

A mecânica clássica de Newton é baseada em três leis fundamentais: i) a lei de inércia, segundo a qual na ausência de forças um corpo permanecerá parado ou em movimento retilíneo com velocidade constante; ii) a segunda lei define que força é igual a massa vezes a aceleração de um corpo (F = ma); iii) a lei de ação e reação, que prevê forças de mesma intensidade mas sentidos contrários na interação entre dois corpos. Com essas leis é possível estudar o movimento de planetas e estrelas, além de corpos na Terra. É possível também projetar construções que sejam estáveis, mesmo contra a ação de terremotos.

Outra característica importante da mecânica clássica é que ela é determinística. Isto é, o movimento de um corpo pode ser previsto com exatidão se as forças que sobre ele agem forem conhecidas. Podemos determinar sua velocidade e posição em qualquer tempo do futuro (ou do passado). Isso será importante no contraste com a mecânica quântica.

Todas as experiências científicas até o final do século XIX confirmavam a validade da mecânica clássica. Entretanto, à medida que se tornou possível realizar experimentos com partículas submicroscópicas, como átomos isolados, notou-se que a mecânica clássica não era mais válida. Por mais de duas décadas no início do século XX desenvolveu-se a teoria quântica, assim chamada porque algumas grandezas são quantizadas. Estas não podem assumir quaisquer valores, mas somente múltiplos de uma quantidade unitária. A primeira dessas grandezas é a energia, que não pode variar continuamente. Como a quantidade unitária é muito pequena, não percebemos a quantização no mundo macroscópico.  

A teoria quântica engloba a mecânica clássica quando os sistemas físicos são macroscópicos, mas quando se trata de matéria subatômica faz previsões surpreendentes, que são confirmadas experimentalmente. Algumas das esquisitices da mecânica quântica são mencionadas abaixo:

1) Dualidade partícula-onda: toda partícula pode se comportar como partícula ou como onda. É possível prever como a partícula se comportará pelo tipo de experimento. Se a partícula estiver se propagando, comporta-se como onda. Se interagir com o ambiente e trocar energia, comporta-se como partícula.

2) Princípio da Incerteza de Heisenberg – não é possível determinar a posição e velocidade de uma partícula com precisão absoluta. Se soubermos com exatidão a posição da partícula nada saberemos sobre sua velocidade. O mesmo vale para a velocidade: se for conhecida com exatidão, nada poderá ser dito sobre a posição da partícula. Uma consequência importante desse Princípio é que as coisas na Natureza nunca podem estar completamente paradas, sem nenhum movimento.

3) A Mecânica Quântica é probabilística: não se pode determinar a trajetória de uma partícula, ao contrário da mecânica clássica. Esta característica da mecânica quântica sempre desagradou a Einstein, que não estava completamente convencido de sua validade e proferiu a famosa frase “Não acredito que Deus jogue dados”.

As manifestações dessas esquisitices não são percebidas no nosso mundo essencialmente macroscópico, porque seus efeitos não são mensuráveis. A incerteza na medida de posição e velocidade prevista pelo Princípio de Heisenberg para um carro em movimento, por exemplo, é ordens de grandeza menor do que a precisão com que essas grandezas podem ser medidas. 

A teoria quântica é abstrata e mesmo sua interpretação é controversa, em razão das previsões que contrariam o senso comum. Entretanto, a aplicação do formalismo matemático a ela subjacente sempre leva a resultados corretos, confirmados experimentalmente. Pelo menos até hoje!

Destacar uma teoria abstrata como a mecânica quântica em um ensaio cujo título menciona um país rico é minha maneira de dar ênfase à constatação de que está no conhecimento a verdadeira riqueza de um país.