segunda-feira, 10 de março de 2014

Igualdade e Redes Sociais

A busca pela igualdade entre humanos tem sido uma constante nos últimos tempos, especialmente após a revolução francesa no final do Século XVIII.  O Século XX foi particularmente promissor, neste aspecto, com a criação da Organização das Nações Unidas, estabelecimento de tratados de direitos universais, respeito aos direitos da mulher, e imposição de leis contra o racismo em alguns países, como o Brasil. Num mundo ideal deveríamos extinguir as divisões de classes sociais, propiciar a toda e qualquer criança no mundo as oportunidades materiais e de educação para se tornarem cidadãos com igualdade de condições àqueles das nações mais ricas.

É desnecessário enfatizar que estamos longe da situação ideal, tanto no que diz respeito às diferenças entre países desenvolvidos e os demais, como às incríveis diferenças sociais e econômicas dentro de um mesmo país. Temos a obrigação ética de perseverar para diminuir as diferenças, e para tanto talvez devêssemos lembrar-nos de usar o conhecimento científico para analisar situações e propor políticas públicas.

Para criar uma sociedade equânime, seus membros precisam ter as mesmas condições materiais e oportunidades, como é óbvio. O que pode passar despercebido é que a igualdade também requer que os membros tenham habilidades e talentos semelhantes, que possam se apropriar de conhecimento e riqueza com a mesma capacidade. E isso é muito difícil! Daí a necessidade de estudar as diferenças e adotar políticas que permitam ainda assim buscar uma sociedade justa. Regimes políticos implantados para impor igualdade não foram bem-sucedidos, talvez porque tenham ignorado tais diferenças e nem levado em conta que é da natureza humana comparar com os mais próximos. Uma sociedade não funciona se todos receberem os mesmos benefícios, independentemente de seus esforços.

Sabemos por intuição que os humanos são intrinsecamente diferentes. Que nossos talentos para esporte, música, arte, podem variar enormemente. Que nossa capacidade de aprender também varia muito, e pode depender do tipo de assunto a ser aprendido. Não há, entretanto, prova científica irrefutável baseada na biologia dessas diferenças. Não é possível quantificar nossas habilidades para uma ou outra coisa. Existem testes de inteligência – como também testes físicos – que podem distinguir-nos uns dos outros, mas eles não são determinantes nem para atividades próximas às das habilidades que estão supostamente medindo. Ainda mais difícil de identificar é a origem de nossos talentos e habilidades; se são oriundos de herança genética ou se foram adquiridos apenas por treinamento.

Diante da impossibilidade de analisar as diferenças diretamente, podemos optar por investigar fenômenos que indiretamente apontam para a falta de igualdade.

Para tanto, dou grande salto de assuntos e menciono uma pesquisa do final dos anos de 1990 sobre a rede de páginas na Internet, quando o cientista Albert-László Barabási, nascido na Romênia e radicado nos Estados Unidos, criou o conceito de redes livres de escala. A principal característica dessas redes é que há alguns nós com um número enorme de conexões, ao passo que a maioria esmagadora de nós tem pouquíssimas conexões. Em outras palavras, se conexões forem consideradas como “riqueza”, há poucos nós extremamente ricos na rede, enquanto a maioria é muito pobre.

Barabási descobriu que a Internet, em que cada página é um nó e as conexões são os links entre páginas, é uma rede livre de escala, com essa má distribuição de riqueza. Observou também que para se construir uma rede desse tipo, deve-se distribuir riquezas de uma maneira que podemos considerar perversa para quem busca igualdade. Pois toda vez que uma nova conexão será acrescentada, a probabilidade de se conectar a um nó é proporcional ao número de conexões que o nó já tem. Isso implica que nós que já têm muitas conexões terão maior probabilidade de receber mais, segundo o paradigma que ficou conhecido como “o rico fica mais rico”.

Há modelos matemáticos precisos que explicam as redes livres de escala, que são muito mais frequentes do que se poderia imaginar. Pesquisadores do mundo todo se debruçaram sobre a questão e verificaram que redes representando sistemas das mais diversas áreas são livres de escala. Alguns exemplos são redes sociais, como as dos atores de Hollywood e de co-autoria em artigos científicos, redes de interação entre proteínas num organismo, redes de aeroportos e redes representando textos escritos. Numa rede de aeroportos, cada nó é um aeroporto e as conexões são os voos entre aeroportos. A maneira mais eficiente de gerir o tráfico aéreo acabou por criar alguns poucos aeroportos (os chamados “hubs” em inglês) com muitos voos, enquanto aeroportos periféricos são a maioria. Quando se analisam os dados de números de voos, nota-se que a rede tem a distribuição típica de rede livre de escala.

O que se pode depreender das constatações é que a distribuição de riquezas nos sistemas representados por redes é majoritariamente não igualitária, favorecendo a quem tem mais para gerar redes livres de escala. Redes com distribuição mais igual entre nós são minoria. Isso se aplica para sistemas naturais – como a rede de interações entre proteínas – e a sistemas produzidos pelo homem. Uma consequência essencial da má distribuição de riquezas é que os nós mais conectados (os hubs) tendem a ser muito mais importantes que nós periféricos, com poucas conexões. Quando se estuda a propagação de uma doença com um modelo baseado em rede, em que cada indivíduo é um nó, há que se identificar os nós principais (hubs) e ter cuidado especial com eles. A eliminação de uma epidemia deve depender muito desses hubs, enquanto nós periféricos não teriam quase nenhuma relevância.

Considerando que humanos se organizam em redes sociais, de amizade, no trabalho, no lazer, e que a maioria dessas redes deve ter distribuição de conexões (riqueza!) desigual, como numa rede livre de escala, é irrefutável a diferenciação dos indivíduos. Dessa análise resta admitir que é impossível atingir igualdade.

A área de pesquisa que trata as redes livres de escala é denominada de redes complexas, numa mescla de metodologias de física estatística e da teoria dos grafos da matemática. Dessas pesquisas participam profissionais de diversos campos, principalmente físicos, matemáticos e cientistas da computação. Devido à generalidade da abordagem de redes complexas, que podem modelar fenômenos e sistemas diversos, há a esperança de que aprendamos como tornar nosso tecido social, afinal uma grande rede, mais justo.


E que o inevitável paradigma do “rico fica mais rico” possa ser compensado com a generosidade, que é uma das qualidades mais nobres dos humanos.

sábado, 1 de março de 2014

Aprendendo a escrever em inglês


O inglês se tornou a língua franca para os negócios, turismo e ciência, e precisa ser dominada com proficiência por quase todo tipo de profissional de alto nível. Isso vem exigindo enorme esforço da comunidade internacional, uma vez que menos de 10% da população têm o inglês como primeira língua. O aprendizado de uma segunda língua, principalmente se não for para crianças de tenra idade, requer muita dedicação.

As dificuldades no aprendizado de uma segunda língua são de várias naturezas, e se manifestam tanto na recepção quanto na produção da língua. Na recepção, o mais fácil é a leitura, pois o conhecimento do vocabulário e de estruturas gramaticais pode ser suficiente para a compreensão de um texto. Compreender a língua falada já é mais complicado porque envolve treinamento do ouvido e adaptação a diferentes sotaques. Mesmo a dificuldade de decifrar as palavras pronunciadas é relevante. Ainda que o ouvinte conheça o vocabulário da língua estrangeira, pode não conseguir perceber as palavras ou expressões que estão sendo ditas. Especialmente difícil é compreender música em língua estrangeira, a não ser que o aprendiz tenha sido treinado.

Para a produção falada ou escrita em língua estrangeira há dificuldades adicionais. Além de conhecer o vocabulário e ter noções de gramática, o aprendiz precisa saber empregá-los com proficiência e rapidez. Para atingir fluência, é imprescindível pensar na língua estrangeira, e não meramente traduzir o que pensou em sua primeira língua.

A influência da língua materna é, a propósito, uma das maiores limitações para a escrita de qualidade. Não é incomum que após muito estudo um aprendiz conheça o vocabulário e a gramática de uma segunda língua, mas ainda assim escreva sentenças que soam estranhas para qualquer nativo da língua, mesmo que estejam corretas gramaticalmente. 

A situação incômoda de não ser capaz de produzir bons textos após longos anos de estudo de uma língua estrangeira parece atingir muita gente, especialmente no meio acadêmico em que há exigência de uso sofisticado do inglês. Este problema enfrentei durante o doutorado, e da necessidade surgiu uma estratégia que se mostrou eficaz, que agora é ensinada em cursos de escrita científica na Universidade de São Paulo (USP).

A estratégia consiste em um treinamento intensivo de leitura de textos bem escritos em inglês (preferencialmente por nativos da língua), com anotação da função de expressões e sentenças. Em outras palavras, o aprendiz deve ler cuidadosamente o texto anotando como expressões transmitem conceitos e ideias. De certa forma, esta é uma extensão da crença (correta!) de que para escrever bem é necessário ler muito. Mas não basta ler muito; é importante que a leitura seja meticulosa e sistemática. Para o aprendizado da escrita, deve-se concentrar mais na forma do que no conteúdo do que está escrito, e assim incorporar as expressões ao cabedal de conhecimentos.

Uma maneira prática de utilizar a estratégia acima é preparar material específico, a partir dos textos selecionados. Para facilitar o estudo sistemático, convém classificar o material que está sendo lido de acordo com a função, a que chamamos de função retórica, e de sua posição no texto. Vou exemplificar com o texto de um artigo científico, mas as ideias gerais podem ser estendidas para outros gêneros.

Um artigo científico, nas áreas de ciências experimentais, engenharia e computação, contém geralmente seis seções: resumo, introdução, metodologia, resultados, discussão e conclusão. Cada uma dessas seções é dividida em subcomponentes, que perfazem a estrutura global do artigo. Por ser uma versão reduzida do artigo, o resumo contém subcomponentes que reproduzem essencialmente os componentes das demais seções, ou seja, tem uma introdução, metodologia, resultados, discussão e conclusão. A introdução, por sua vez, deve conter contextualização do trabalho de pesquisa, revisão da literatura e apresentação do conteúdo do artigo, incluindo o objetivo principal da pesquisa. A própria identificação dos subcomponentes das seções é um exercício rico de aprendizado, independentemente da língua em que está escrito.

Na sistematização da coleta de textos, o aprendiz deve classificar sentenças e expressões do material de referência, escrito por nativos da língua inglesa, de acordo com as seções e subcomponentes. Deve também marcar frases ou expressões que servem funções como descrever, contrastar, explicar, definir, ressaltar, etc. É importante que o aprendiz saiba escrever em inglês o que gostaria de fazê-lo em sua primeira língua.

Ao classificar e anotar o material, deve-se destacar partes das sentenças que são genéricas, não diretamente associadas ao conteúdo transmitido no texto. Isto é, são expressões que podem ser aprendidas e utilizadas em outros contextos. Por isso, um bom exercício é apagar as informações factuais do texto, deixando apenas as partes genéricas, e tentar preencher as lacunas com seu próprio material escrito.

Uma vez compilado um bom volume de material, que segundo minha experiência deve ser de 40 a 50 páginas de textos com expressões classificadas, e o aprendiz ter treinado o preenchimento das lacunas, chegou a hora de cuidar de parágrafos e trechos mais longos de texto. Aqui é importante garantir coesão, com ideias que fluem sem quebras bruscas de ritmo. Para tanto deve-se treinar o uso de conectivos entre sentenças, como however (entretanto), in addition (além disso), on the other hand (por outro lado).

Em todos os casos, deve-se conferir não apenas se as sentenças produzidas estão corretas gramaticalmente mas também se elas estão de acordo com o que nativos escrevem. É nisso que o material de referência pode ser tão útil.

Essa estratégia de aprender fazendo a partir de um material de referência tem respaldo na linguística aplicada, mais precisamente numa área denominada linguística de corpus. O material de referência é, de fato, chamado de corpus – que é uma coleção de textos estruturada e anotada. Ressalte-se o pressuposto que o aprendiz já tenha um nível mínimo de inglês, inclusive com conhecimento de gramática. Pois seria impossível requerer que ele reconheça material bem escrito em inglês, se já não souber ler com certa proficiência.


O leitor deve ter percebido que a tarefa de construir um corpus, e aprender inglês a partir de seu uso sistemático, não é simples nem rápida. É no mínimo tediosa e exige muito tempo e dedicação. Mas não há outro jeito. Não existem fórmulas mágicas para alguém aprender a escrever em inglês rapidamente e com pouco esforço! 

quarta-feira, 19 de fevereiro de 2014

Degustando café com uma língua eletrônica


O verbo degustar virou sinônimo de alta qualidade de vida, de maneira que a princípio não veríamos vantagem em repassar o prazer da degustação para um dispositivo eletrônico. Um dos grandes desafios dos tempos modernos, entretanto, é colocar as novas tecnologias a nosso serviço, sem delas nos tornarmos escravos. Acredito que isso possa ser feito com uma língua eletrônica.

Uma língua eletrônica tenta imitar o que faz uma língua humana, cujos sensores de paladar representados pelas papilas gustativas enviam ao cérebro sinais que são a combinação dos chamados sabores básicos: doce, amargo, azedo e salgado (os asiáticos incluíram umami, que corresponderia ao sabor de peixe cru, como um quinto sabor básico). Isso quer dizer que não detectamos substâncias químicas específicas ao saborear algo. Nossos sensores não têm seletividade para identificar cada uma das substâncias que provamos. Apesar disso, temos grande capacidade de reconhecimento dos diversos sabores. O café é constituído por dezenas de elementos e substâncias químicas, e nossa língua consegue reconhecê-lo prontamente sem identificar uma dessas substâncias sequer.

Na prática, a língua eletrônica é feita de um conjunto de sensores que são imersos no líquido que se quer identificar. Cada sensor contém uma película muito fina, de espessura nanométrica, depositada sobre eletrodos metálicos que permitem realizar medidas elétricas. Para estas medidas, aplica-se um sinal elétrico no eletrodo e mede-se a resposta que dependerá do tipo de líquido. O material empregado na película deve ser escolhido de acordo com a aplicação. Por exemplo, se queremos verificar pequenas diferenças de acidez num líquido, empregamos um material cujas propriedades elétricas variam bastante com o pH (isto é com a acidez). Usam-se vários sensores para ter variedade na resposta e assim formar uma “impressão digital” de cada líquido estudado.

A grande vantagem da língua eletrônica sobre a humana está na sensibilidade, pois é possível detectar sabores com muito maior precisão. Apenas a título de ilustração, menciono que se adicionarmos sal à água pura, a língua eletrônica consegue perceber que há sal muito antes de qualquer humano. Após a língua eletrônica detectar o sal, seria necessário aumentar a concentração mil vezes para que o humano perceba. É de se imaginar que se a língua eletrônica é tão sensível, então deve ser capaz de distinguir líquidos muito parecidos. Isso realmente acontece, pois com uma língua eletrônica pode-se distinguir diferentes tipos de café, vinhos de safras diferentes, marcas distintas de água de coco, além de muitos outros tipos de bebidas.

Logo após o surgimento de línguas eletrônicas, especulava-se se elas poderiam definir o que é gostoso ou não. Porque a análise do sinal elétrico permite apenas saber que um líquido é diferente do outro. Mas com o emprego de métodos de inteligência artificial, mais precisamente de aprendizado de máquina, é possível ensinar à língua eletrônica o que é um sabor gostoso. Numa experiência realizada pela USP de São Carlos e a Embrapa Instrumentação, também de São Carlos, verificou-se que uma língua eletrônica treinada podia adivinhar a nota atribuída por um degustador de café profissional. A propósito, identificar os chamados cafés gourmet era uma tarefa fácil para a língua eletrônica, o que provavelmente indica um alto controle de qualidade na produção desse tipo de café no Brasil.

Sempre aparecem polêmicas na divulgação de tecnologias que podem substituir humanos. No caso da língua eletrônica, a tecnologia seria auxiliar ao trabalho que degustadores e outros profissionais realizam no controle de qualidade de alimentos e bebidas. Para ensinar o que é bom ou ruim a uma língua eletrônica, há que se empregar dados fornecidos por especialistas humanos, que são insubstituíveis. 

Além disso, a característica “eletrônica” da língua traz outras implicações. Esse dispositivo eletrônico pode ter muitas outras funções que os humanos não podem ou não querem fazer. Por exemplo, pode-se usar uma língua eletrônica para testar sabor amargo de remédios em tentativas de deixá-los mais palatáveis. Pode-se empregá-la no controle ambiental e qualidade de águas, inclusive com detecção de pesticidas ou metais pesados nocivos à saúde.


A tecnologia por trás da língua eletrônica é uma combinação de nanotecnologia, importante para a escolha dos materiais adequados aos sensores obtidos a partir de películas de dimensões nanométricas, com métodos computacionais. Estes últimos, especialmente aqueles oriundos da inteligência artificial, são essenciais para o poder de discriminação de uma língua eletrônica. É mais um exemplo de aplicação que só se torna possível com convergências de tecnologias. 

terça-feira, 11 de fevereiro de 2014

A incrível estória do menino que enxugava gelo


Era uma vez um menino muito inteligente, apaixonado por ciência e que sabia da necessidade de juntar economias para sua educação. Resolveu então usar seus conhecimentos científicos para ganhar dinheiro e fez fortuna enxugando gelo. Ou melhor, ganhou muito dinheiro em apostas, desafiando a quem se aventurasse que ele tinha encontrado uma maneira de enxugar gelo.

Veio gente de toda a parte para o desafio. O menino preparou um sistema simples, com uma forma de gelo furada ligada a um estreito canal. Ele apostava que conseguia enxugar gelo de tal maneira que o canal nem molhado ficava. E ganhava aposta após aposta, de valores cada vez mais altos. Os perdedores não contavam o segredo por vergonha de terem sido derrotados por um menino.

Afinal, qual era a mágica ou método científico que o menino havia descoberto? Ora, não havia mágica nenhuma. Era só um detalhe na formulação da aposta, pois o menino não especificava a escala de tempo. Só após iniciada a contenda é que ele dizia que seu método de enxugar gelo – com um simples pedaço de pano - era perfeito para a escala de segundos. Obviamente que o gelo não se derreteria em segundos e – a propósito - enxugar com o pano não fazia diferença! Para aqueles apostadores dispostos a pagar mais caro, desafiando o menino a enxugar gelo que já se estava derretendo, o menino era obrigado a usar uma escala menor do que segundos para poder ganhar. Mas a vitória era certa: bastava escolher a escala correta.

Resolvi contar esta estória para ressaltar a importância de escalas, em ciência e em nosso cotidiano. O ouro é dourado, como todo mundo sabe, quando em peças macroscópicas, ou seja, em anéis, correntes e barras. Porém, nanopartículas de ouro são avermelhadas, e sua cor pode variar com o tamanho e formato das partículas. Sabemos que o sol vai se acabar, e com ele a vida na Terra, mas não nos preocupamos pois isso só ocorrerá na escala de bilhões de anos.  

Em nosso dia a dia, podemos continuar usando a metáfora de “enxugar gelo”, na medida em que pensamos numa escala de minutos ou dezenas de minutos em que certamente o gelo em temperatura ambiente (20 ou 30ºC) derreterá. Em muitas decisões da sociedade, entretanto, seria essencial levar em conta a escala de tempo ou de investimentos.

Tomo como exemplo o problema mais grave no Brasil de hoje, que é a educação. As políticas e ações em educação são concebidas para alguns poucos anos, uma vez que as eleições majoritárias acontecem a cada quatro anos. As políticas em educação de que precisamos, que levariam muito mais tempo para dar resultado, não têm, portanto, chance de serem adotadas. A principal medida seria o aumento considerável nos salários dos professores, como já defendi em outro ensaio. Mas isso não daria resultado em menos de 10 ou 20 anos, porque é necessário treinar e formar professores, alterar paradigmas de nossas escolas – o que só é possível fazer com professores valorizados e bem pagos.

Uma dificuldade adicional é a escala de investimentos requeridos para dar aumentos de salários significativos. Uma vez que a folha salarial é de longe o item mais relevante no orçamento da educação, dobrar salários, por exemplo, corresponde a quase dobrar o orçamento. Muito mais barato e atraente politicamente é criar vários programas e subprogramas: de construções e melhorias de escolas, de merenda, de material escolar, de equipamentos, de atividades extraordinárias, e assim por diante. Podem ser inúmeros programas, por mais importantes, necessários ou justificáveis que sejam, ao custo que corresponderia a um aumento substancial nos salários dos professores.

Sem que a sociedade compreenda as diferenças de escala e se convença que - a persistirem os problemas graves de educação - o Brasil não tem futuro, continuaremos convivendo com repetidas políticas que nada mais são do que um eterno “enxugar de gelo”.


sexta-feira, 7 de fevereiro de 2014

Pode ser quântico o computador do futuro

Já não vivemos sem computador. Além das máquinas que hoje recebem diferentes nomes, como microcomputador, computador portátil e outros nomes em inglês que acabamos por adotar, quase todos os aparelhos eletrônicos têm processadores. Estes processadores são os ingredientes essenciais dos computadores: são eles que “computam”. É interessante, aliás, notar uma mudança semântica no uso da palavra computador. Para os primeiros automóveis ou aviões que empregavam computadores, dizíamos que eles tinham computador de bordo. Hoje ninguém se lembra disso, pois cada carro ou avião tem inúmeros computadores (processadores) dentro de si.

Muitos têm sido os avanços na produção de computadores nas últimas décadas. Comecemos pela tela. Por longo tempo, empregou-se uma tecnologia antiga, com tubos de raios catódicos ou tubos de televisão, que já tem mais de cem anos. Devido ao princípio de funcionamento, não era possível obter tela fina e leve. Hoje, praticamente todos os novos computadores têm tela de cristal líquido (denominadas LCD, do nome em inglês “liquid crystal display”), e em breve poderão se popularizar as telas de diodos emissores de luz, denominadas de telas LED, da sigla em inglês “light emitting diode”. As telas de TV com LED usam semicondutores inorgânicos, materiais rígidos. Como já comentei neste espaço, já há tecnologia para produzir telas de plástico luminescente, o que permitirá obter telas flexíveis.

A capacidade de processamento também evoluiu enormemente, o que permite hoje a um telefone celular realizar tarefas que só computadores de grande porte poderiam fazer nos primórdios da computação. Isso vem acompanhado do aumento de capacidade de memória, principalmente com os novos materiais produzidos pela nanotecnologia (vide ensaio “Nanotecnologia chega ao Nobel”).

A evolução fantástica da capacidade computacional nos últimos anos, com aparelhos cada vez menores e mais poderosos, se deve ao aprimoramento na produção e controle de novos materiais. Isso só é possível com conhecimentos da teoria quântica, como já enfatizei mais de uma vez. Entretanto, o processamento e armazenamento da informação ainda se baseiam em processos explicados pela física clássica. Ocorre que as informações num computador atual (que chamamos de clássico) são armazenadas e lidas em materiais segundo as leis do eletromagnetismo clássico. Os estados lógicos binários 1 e 0 são definidos dependendo se há passagem ou não de corrente elétrica, ou se uma certa região está magnetizada ou não.

Há alguns anos propôs-se o desenvolvimento de um computador quântico, em que a lógica binária seria substituída aproveitando-se de uma propriedade interessante da mecânica quântica. Ao contrário da mecânica clássica para um sistema de dois estados em que uma entidade física só pode ocupar o estado “1” ou o estado “0”, na mecânica quântica existem infinitas possibilidades porque a entidade pode em princípio ocupar os dois estados simultaneamente.

Uma analogia é a de um livro que pode ser colocado em uma de duas prateleiras de uma estante. A uma prateleira atribuímos o estado “0” e à outra o estado “1”. Logicamente, no nosso mundo clássico o livro ou está em “1” ou em “0”. Já a mecânica quântica permite como solução a superposição dos estados, como se uma parte do livro pudesse estar na prateleira “0” e o restante na prateleira “1”. A possibilidade de dividir em 2 partes arbitrárias fornece a infinidade de soluções.

Assim, ao contrário do computador clássico cuja memória é feita de bits que podem guardar apenas "1" ou "0" de informação, um computador quântico mantém um conjunto de qubits (do inglês, quantum bit) que podem conter "1", "0" ou uma sobreposição destes estados. É o chamado paralelismo quântico que permite executar operações simultaneamente, aumentando enormemente a capacidade de processamento de informação. Há previsões de que um computador quântico poderá processar um milhão de operações enquanto um clássico poderia processar uma única.

Os sistemas físicos que representarão os qubits podem, em princípio, ter dimensões menores do que os elementos de circuito de um computador clássico, podendo ser inclusive núcleos de átomos. Isso permitiria miniaturização sem precedentes na história do computador, mas embute a maior dificuldade de fabricação de um computador quântico eficaz: a manipulação e verificação do estado de cada um desses sistemas físicos nos qubits. Por isso, um computador quântico ainda não está disponível para uso em larga escala, e não se tem previsão de quando poderá estar.

Das pesquisas em computação quântica, todavia, já há resultados concretos e usados pela sociedade. Trata-se da criptografia quântica, com a qual informações são criptografadas com muito mais segurança de que com os métodos clássicos atuais. A propósito, espera-se que um computador quântico possa descobrir as senhas criptografadas com os métodos clássicos. Isso significa que se um grupo de cientistas desenvolver um computador quântico com essa capacidade, todo o sistema de comércio e bancário estaria sob risco caso esses pesquisadores fossem mal intencionados. A solução seria imediatamente substituir todo o sistema com criptografia quântica, cujas senhas não poderiam ser quebradas. 


Eu particularmente não me preocupo com essa possibilidade de colapso. Na história da ciência não parece haver casos de grandes cientistas que usem seus inventos deliberadamente para o mal. Há logicamente casos em que as invenções foram usadas para a guerra, mas sempre havia outros objetivos que supostamente seriam benéficos. Felizmente os cientistas do mal ficam nas obras de ficção. 

sábado, 25 de janeiro de 2014

As forças da Natureza


Imagino que a maioria das pessoas responderia que são inúmeras as forças que existem na Natureza. Alguns pensarão no uso corriqueiro da palavra "força", mencionando forças do bem, do mal, ocultas, de vontade, de expressão. Mesmo ficando no campo das forças em física, contaríamos a força elétrica, magnética, da gravidade, de contacto, de atrito, elástica.

Pois bem, na verdade há apenas quatro forças na Natureza. E o que pode ser mais surpreendente, apenas duas delas são relevantes em nosso cotidiano.

A força mais familiar é a da gravidade, ou gravitacional. Sua consequência mais perceptível é que corpos tendem a cair no chão, atraídos que são pela Terra. A força gravitacional é sempre atrativa e aparece entre dois corpos quaisquer. Duas pessoas próximas sofrem atração gravitacional, mas isso seria impossível perceber ou medir com os aparelhos que temos à disposição. Ocorre que a força gravitacional é muito pequena, só se manifestando quando pelo menos um dos corpos tem uma grande massa, como a Terra. Por isso, não temos dúvidas que corpos são atraídos pela Terra, mas não entre si (aparentemente!).

As outras três forças da Natureza são a eletromagnética, a nuclear fraca e a nuclear forte. Deixemos por último a força eletromagnética, que é a outra de relevância para o cotidiano. As forças nucleares só agem dentro do átomo, tendo alcance muito pequeno. Por exemplo, o núcleo de um átomo não afetaria o de outro átomo, se dependesse apenas das forças nucleares, pois elas são desprezíveis à distância entre dois átomos. As forças nucleares, fortes e fracas, são responsáveis pela estabilidade do átomo e explicam fenômenos como a radioatividade.

Em ensaio anterior, comentei a necessidade de haver forças nucleares para explicar a estabilidade do núcleo (e do átomo). Um átomo é constituído de um núcleo, onde estão os prótons carregados positivamente e os nêutrons, que não têm carga elétrica, e de elétrons. Como cargas de mesmo sinal se repelem, os prótons no núcleo sofrem repulsão entre si, que é tanto maior quanto mais próximos estiverem. Portanto, para que os prótons não se separem e o núcleo "exploda", forças adicionais devem atuar. Precisam ser atrativas para compensar a repulsão elétrica. São as forças nucleares fortes.

A força restante é a eletromagnética. Ela engloba todas as possíveis forças que podemos imaginar no nosso dia-a-dia, com exceção da gravitacional. A força de atrito, de contacto, elástica, elétrica, magnética, são todas de origem eletromagnética. São manifestações das interações entre átomos e moléculas dos corpos envolvidos na determinada força. Isso quer dizer que a força exercida para empurrar algo, ou para abraçar um amigo, é uma força eletromagnética.

As forças eletromagnéticas podem ser atrativas ou repulsivas. Só são repulsivas em duas situações. Quando participarem cargas elétricas de mesmo sinal ou quando dois corpos tentarem ocupar o mesmo lugar no espaço. É interessante que um conceito macroscópico, como este de dois corpos não poderem estar no mesmo lugar ao mesmo tempo, tenha origem quântica. De fato, essa repulsão extremamente forte é devida ao Princípio da Exclusão de Pauli, um princípio da Mecânica Quântica segundo o qual dois elétrons com as mesmas características não podem estar na mesma região do espaço em dado momento.

A grande variedade de "forças" de origem eletromagnética se deve ao fato de corpos neutros também interagirem entre si. Pois mesmo sendo neutros, tais corpos têm cargas positivas e negativas (obviamente porque são constituídos de átomos com núcleos positivos e elétrons que têm carga negativa) que interagem na escala atômica ou molecular.

Sobre neutralidade, há uma observação curiosa. Se duas pessoas a um metro de distância tivessem 1% de carga líquida em seus corpos, sofreriam uma força de atração (se carregados com sinais opostos) ou repulsão suficiente para erguer a Terra inteira. Tamanha força não aparece devido à neutralidade dos corpos, o que fez com que fenômenos elétricos e magnéticos demorassem a ser descobertos, pois não havia fortes manifestações espontâneas. Somente após o desenvolvimento de dispositivos pelo homem, eletricidade e magnetismo passaram a ter efeitos perceptíveis em muitas situações. Até o século XVIII, tais manifestações eram praticamente limitadas à carga elétrica de materiais por atrito e ao magnetismo em ímãs.

As quatro forças da Natureza estão também no centro de um dos maiores desafios da física. Três dessas forças, a eletromagnética, a nuclear forte e a nuclear fraca, são explicadas pela teoria quântica, que não engloba a força gravitacional. Esta última é explicada pela Teoria Geral da Relatividade. Até hoje não foi encontrada maneira de unificar a Teoria da Relatividade com a Teoria Quântica. Einstein tentou por vários anos e não foi bem-sucedido.


Continuamos à espera de um gênio para resolver esse dilema. 

quarta-feira, 15 de janeiro de 2014

De onde vem a riqueza de um país rico

Há algum tempo publicou-se uma estimativa de que mais de 50% do Produto Interno Bruto (PIB) dos Estados Unidos eram oriundos de tecnologias que dependiam da teoria quântica. Ou seja, tecnologias viabilizadas pelo conhecimento da estrutura da matéria proporcionado pela teoria quântica, como já enfatizado em ensaios anteriores. Não me preocupei em verificar a porcentagem exata e nem se houve variação da percentagem ao longo dos últimos anos, porque é fácil constatar a importância crescente da informática e dos dispositivos eletrônicos em nossa sociedade.

Não tive oportunidade ainda de explicar essa teoria, o que tento fazer agora. Inicio com uma comparação com a mecânica clássica, desenvolvida por Isaac Newton, para explicitar depois as diferenças.

A mecânica clássica de Newton é baseada em três leis fundamentais: i) a lei de inércia, segundo a qual na ausência de forças um corpo permanecerá parado ou em movimento retilíneo com velocidade constante; ii) a segunda lei define que força é igual a massa vezes a aceleração de um corpo (F = ma); iii) a lei de ação e reação, que prevê forças de mesma intensidade mas sentidos contrários na interação entre dois corpos. Com essas leis é possível estudar o movimento de planetas e estrelas, além de corpos na Terra. É possível também projetar construções que sejam estáveis, mesmo contra a ação de terremotos.

Outra característica importante da mecânica clássica é que ela é determinística. Isto é, o movimento de um corpo pode ser previsto com exatidão se as forças que sobre ele agem forem conhecidas. Podemos determinar sua velocidade e posição em qualquer tempo do futuro (ou do passado). Isso será importante no contraste com a mecânica quântica.

Todas as experiências científicas até o final do século XIX confirmavam a validade da mecânica clássica. Entretanto, à medida que se tornou possível realizar experimentos com partículas submicroscópicas, como átomos isolados, notou-se que a mecânica clássica não era mais válida. Por mais de duas décadas no início do século XX desenvolveu-se a teoria quântica, assim chamada porque algumas grandezas são quantizadas. Estas não podem assumir quaisquer valores, mas somente múltiplos de uma quantidade unitária. A primeira dessas grandezas é a energia, que não pode variar continuamente. Como a quantidade unitária é muito pequena, não percebemos a quantização no mundo macroscópico.  

A teoria quântica engloba a mecânica clássica quando os sistemas físicos são macroscópicos, mas quando se trata de matéria subatômica faz previsões surpreendentes, que são confirmadas experimentalmente. Algumas das esquisitices da mecânica quântica são mencionadas abaixo:

1) Dualidade partícula-onda: toda partícula pode se comportar como partícula ou como onda. É possível prever como a partícula se comportará pelo tipo de experimento. Se a partícula estiver se propagando, comporta-se como onda. Se interagir com o ambiente e trocar energia, comporta-se como partícula.

2) Princípio da Incerteza de Heisenberg – não é possível determinar a posição e velocidade de uma partícula com precisão absoluta. Se soubermos com exatidão a posição da partícula nada saberemos sobre sua velocidade. O mesmo vale para a velocidade: se for conhecida com exatidão, nada poderá ser dito sobre a posição da partícula. Uma consequência importante desse Princípio é que as coisas na Natureza nunca podem estar completamente paradas, sem nenhum movimento.

3) A Mecânica Quântica é probabilística: não se pode determinar a trajetória de uma partícula, ao contrário da mecânica clássica. Esta característica da mecânica quântica sempre desagradou a Einstein, que não estava completamente convencido de sua validade e proferiu a famosa frase “Não acredito que Deus jogue dados”.

As manifestações dessas esquisitices não são percebidas no nosso mundo essencialmente macroscópico, porque seus efeitos não são mensuráveis. A incerteza na medida de posição e velocidade prevista pelo Princípio de Heisenberg para um carro em movimento, por exemplo, é ordens de grandeza menor do que a precisão com que essas grandezas podem ser medidas. 

A teoria quântica é abstrata e mesmo sua interpretação é controversa, em razão das previsões que contrariam o senso comum. Entretanto, a aplicação do formalismo matemático a ela subjacente sempre leva a resultados corretos, confirmados experimentalmente. Pelo menos até hoje!

Destacar uma teoria abstrata como a mecânica quântica em um ensaio cujo título menciona um país rico é minha maneira de dar ênfase à constatação de que está no conhecimento a verdadeira riqueza de um país. 

sexta-feira, 10 de janeiro de 2014

Internet para as máquinas


Ninguém duvida que a Internet tenha sido uma das criações mais importantes de toda a história, com um impacto imenso em nossas vidas. Poucas inovações alteraram de maneira tão marcante a forma de viver dos humanos, por afetar todo tipo de atividade.

Apesar de reconhecer a maravilha e a utilidade da Internet, constatei com surpresa uma limitação sua crucial: a Internet foi feita só para os humanos, e não pode ser usada pelas máquinas (não facilmente pelo menos!). Percebi essa limitação após o físico Tim Berners-Lee criar o conceito de Web Semântica, que explicarei a seguir. Ele, que foi um dos pioneiros da Internet, deve também ter verificado que poderia ter sido mais ousado, e já de início conceber um sistema passível de uso por computadores ou máquinas.

Notem que, a despeito de robôs virtuais poderem fazer busca e agir na Internet, quase sempre é necessária a intervenção humana. Para a maioria esmagadora dos usos que fazemos da Internet, precisamos nós mesmos buscar a informação e processá-la.

Para que pessoas possam ter acesso a páginas na Internet em diferentes línguas e dispositivos de acesso, como computadores diferentes e outros meios, é necessário padronizar. O conteúdo exposto pelo responsável por uma página na Internet é codificado de tal maneira que textos e imagens apareçam com as cores e localizações pretendidas. Apesar dessa padronização, a interpretação do conteúdo só pode ser feita por humanos, pois não há marcas que permitam a uma máquina inferir o que está escrito ou mostrado.

Na concepção da Web Semântica, Tim Berners-Lee – que para mim se redimiu de ter criado uma Internet limitada a humanos – propõe que todo o conteúdo de uma página tenha marcas semânticas, tornando-o passível de interpretação automática por uma máquina.

Para exemplificar os benefícios da implementação de um sistema como o da Web Semântica, discutirei uma aplicação bastante simples. Suponhamos que um grupo de 10 casais fosse a um casamento em outra cidade. Eles poderiam contratar um agente de viagens que teria a seguinte missão:
i) Reservar os 10 quartos de hotel, preferivelmente no mesmo hotel para todos, e que seja próximo do local do casamento.
ii)    Organizar transporte do aeroporto até o hotel ou hotéis.
iii) Marcar horários em salões de beleza para as 10 esposas. Como são muitas, provavelmente seria necessário utilizar mais de um salão.
iv)  Organizar transporte para as esposas até os salões de beleza e de volta para o hotel. Aqui é essencial garantir que todas voltem a tempo para o casamento, o que também requer que a localização dos salões seja conveniente.
v) Como os maridos terão tempo livre, querem assistir a um jogo de futebol na televisão, em um canal pago de esportes que provavelmente não está disponível no hotel (ou hotéis). O agente deve verificar a disponibilidade, e se não houver, reservar mesa num bar de esportes em que o jogo será mostrado. Também é necessário organizar transporte e escolher um bar em local conveniente.

Provavelmente o agente usará a Internet para todas essas tarefas. Devido à necessidade de sincronização e verificação da duração de alguns eventos, é quase certo que alguns agendamentos serão feitos por telefone. Apesar de serem tarefas muito simples, hoje apenas um agente humano consegue realizá-las.

Com a Web Semântica, a expectativa é que um agente “virtual”, de software, pudesse cuidar de todas as tarefas mencionadas. Não é difícil imaginar que as informações nas páginas de hotéis, salões de beleza e agências de táxi teriam que ser mais completas do que são hoje. E o mais importante, que as informações pudessem ser processadas por uma máquina, o agente virtual em nosso caso.

Embora continue achando a ideia genial, não acredito que a Web Semântica possa ser implementada como inicialmente proposta. A grande dificuldade está na necessidade de que todo o material colocado na Internet seja recodificado. Na época da proposição da Web Semântica, em 2001, a Internet era relativamente recente e talvez fosse viável iniciar novas páginas já com a codificação semântica. Isso seria impossível hoje.

De qualquer forma, talvez o leitor tenha percebido que – mesmo sem Web Semântica – estamos nos aproximando de agentes virtuais como o mencionado acima. Basta lembrar dos aplicativos que surgem a cada dia, principalmente para os telefones celulares. São inúmeras as tarefas que podem ser executadas para facilitar nossas vidas, incluindo a escolha de melhores rotas para evitar congestionamentos e informação sobre restaurantes nas imediações.


Seja com um conceito como a Web Semântica ou com aplicativos cada vez mais sofisticados, os agentes virtuais só serão úteis se puderem se comunicar conosco em língua natural. Pois queremos passar instruções como escrevi na especificação da tarefa relacionada ao casamento acima, por texto ou fala. Se a comunicação com o agente virtual exigir conhecimento de sistemas computacionais e muitas interações com o usuário, será mais fácil executarmos as tarefas nós próprios. Como fazemos hoje com a nossa limitada Internet.  

terça-feira, 7 de janeiro de 2014

A comunicação com a sociedade

Cientistas e pessoas públicas têm o dever de prestar contas à sociedade que financia suas atividades, num processo de comunicação que também deve ter caráter instrutivo. Pois é essencial que a sociedade esteja bem informada para tomar decisões sensatas acerca de questões polêmicas sobre desenvolvimento e tecnologia.

Um exemplo recente de comoção nacional que pode levar a más decisões foi o ataque a um instituto de pesquisa que usava cães em seus experimentos. A partir de imagens chocantes de animais amedrontados, surgiu toda sorte de apelos para proibição de experiências científicas envolvendo animais. É lógico que tais experiências precisam ser acompanhadas rigorosamente, com regras éticas claras e restritivas. Entretanto, uma análise ainda que superficial sobre o desenvolvimento de novos fármacos e de métodos que fizeram a medicina avançar enormemente nos últimos anos indica claramente que testes com animais são imprescindíveis. O argumento de que se quisessem os cientistas poderiam substituir tais testes não se sustenta.

As duas alternativas aos testes com animais teriam conseqüências catastróficas. A primeira seria simplesmente não desenvolver novos fármacos, que sempre requerem testes antes de sua comercialização. Epidemias e pandemias poderiam se proliferar com uma mortalidade sem precedentes. Em tempos de globalização, com pessoas se locomovendo de um continente a outro com grande frequência, novas doenças para as quais ainda não haja remédios eficazes seriam espalhadas. De particular interesse nesse aspecto seriam as doenças causadas por bactérias que se tornam resistentes a antibióticos. Sem a criação de novos fármacos, em poucos anos tais bactérias poderiam dominar nosso mundo. Pareceria com aqueles casos de filmes de ficção, em que a Terra é dominada por algum tipo de ser – terrestre ou extra-terrestre.

A outra alternativa, de conseqüências não menos catastróficas, seria testar novos fármacos diretamente em humanos. Além do óbvio problema de que qualquer efeito colateral não previsto pode trazer danos irreversíveis à saúde das cobaias humanas, tais testes não seriam eficazes pela falta de rigor científico. Isso porque nos testes de fármacos, os animais utilizados são concebidos e criados com alto grau de controle, para que se possa efetivamente identificar os efeitos dos novos remédios. Não são animais reunidos aleatoriamente para os testes. Esse controle seria impossível fazer com humanos!

A necessidade de múltiplos testes para a eficácia e segurança de medicamentos e procedimentos clínicos em geral é justificada pela complexidade do problema científico-tecnológico. Colocar um novo fármaco no mercado pode custar hoje mais de 1 bilhão de reais, e demorar mais de uma década, devido à longa cadeia de pesquisas e testes.

O desenvolvimento de um novo fármaco passa por pelo menos 5 etapas: Na primeira, as moléculas candidatas a fármaco – que poderão se tornar o princípio ativo de um novo remédio - têm suas propriedades estudadas em simulações computacionais. Normalmente são testadas dezenas ou até milhares de moléculas de uma família que se prevê ter um efeito medicinal. Tais moléculas podem nem existir, ou seja, nem terem sido sintetizadas (produzidas em laboratório), uma vez que as simulações são feitas com base na sua estrutura química. Dentre as mais promissoras, algumas são selecionadas para serem sintetizadas e estudadas em laboratório para verificar sua atuação enquanto princípio ativo.

Os testes de princípio ativo merecem descrição mais detalhada. Antes de verificar ação em animais ou humanos, há que observar se os candidatos a fármacos interagem com componentes celulares como preconizado na concepção do remédio. Por exemplo, um remédio para combater bactérias pode fazê-lo destruindo a membrana dessas bactérias, e portanto são realizados experimentos – em nível molecular – para verificar tal efeito. Esta pode ser considerada a segunda etapa do desenvolvimento de um fármaco. Na terceira etapa, são feitos os chamados testes in vitro, em que se confirma que os candidatos a fármaco de fato matam as bactérias em culturas sobre placas de vidro.

Os testes in vivo correspondem à quarta e quinta etapas, em animais e humanos, respectivamente. Estas etapas são, obviamente, as mais demoradas e caras. Dependendo do tipo de remédio que está sendo criado, diferentes modelos animais precisam ser usados, normalmente iniciando-se com camundongos e podendo incluir primatas, cujas características fisiológicas são mais próximas das dos humanos. Para antibióticos tomados como exemplos, deve-se garantir que sejam nocivos às bactérias mas não às células do corpo humano. Infelizmente o comportamento de um remédio nos testes in vitro pode não ser o mesmo do que nos animais e nos humanos, de maneira que não há como prescindir dos testes in vivo.


O leitor deve ter notado a complexidade do desenvolvimento de um novo remédio, mesmo com uma descrição tão simplificada como a apresentada acima. Quando a sociedade precisar tomar decisões difíceis, como as relacionadas a testes com animais e humanos, é crucial estar bem informada. 

quarta-feira, 1 de janeiro de 2014

Precisão de um relógio atômico para um encontro amoroso

Não pode haver encontro a ser levado mais a sério do que um encontro amoroso, em que é crucial a pontualidade – e obviamente ir ao local correto. Com que precisão é necessário ser pontual para tal encontro? A maioria de nós dirá que a precisão de um minuto é suficiente, e assim bastaria ter um relógio de pulso comum ou mesmo um telefone celular, marcando a hora certa.

Discordo. Nos dias de hoje, precisamos de um relógio atômico. Explico o porquê.

Muitos de nós usamos serviços de GPS (da sigla global positioning system) para nos dirigirmos a qualquer local aonde não vamos regularmente. E o GPS não funcionaria corretamente se não fosse baseado na utilização de relógios atômicos, como enfatizado no ensaio anterior. Ou seja, indiretamente precisamos de relógios atômicos para chegar pontualmente no local do encontro, a despeito de que não tenhamos a pretensão de uma precisão de nanossegundos.

Afinal, o que é um relógio atômico? Inicio a explicação relembrando o conceito de medida de tempo, que pode ser feita a partir de qualquer fenômeno periódico. Pode ser o período de rotação da Terra, da oscilação de um pêndulo ou de gotas d’água que caem de uma torneira mal fechada. É fácil compreender que a precisão de tal medida dependerá basicamente de duas coisas: a regularidade do fenômeno e a frequência com que se repete. No caso da torneira, por exemplo, uma inspeção simples mostrará que o pingar das gotas não é tão regular quanto se gostaria para medir tempo. Por isso, ninguém pensaria em usá-lo. No que tange a frequência, fenômenos que acontecem com baixa frequência não permitem medir tempos muito pequenos, ou com muita precisão. Como medir evento que dure um microssegundo (1 milionésimo de um segundo) se o período de oscilação de um pêndulo é da ordem de um segundo?

Para os relógios de pulso, um grande avanço em precisão foi alcançado há algumas décadas com a utilização de cristais de quartzo, que são materiais com propriedades piezelétricas. Um material piezelétrico gera um sinal elétrico ao sofrer pressão, e também apresenta o efeito inverso. Ou seja, ele se expande ou contrai sob estímulo elétrico. Ao excitar um cristal de quartzo com um sinal elétrico periódico, numa determinada frequência, denominada frequência de ressonância, observa-se máxima vibração ou efeito piezelétrico.

Para usar uma frequência de referência na medida do tempo, contam-se os ciclos de vibração do cristal de quartzo durante um evento, e compara-se com a frequência de ressonância do cristal (a usada nos relógios é de 32.768 oscilações por segundo, isto é, 32.768 Hz). Um exemplo de contagem simples é o de um fenômeno que ocorre uma vez por segundo, isto é, com frequência de 1 Hz. Se a contagem der 60 ciclos, significa que a duração do evento foi de 60s.

Um relógio atômico funciona segundo princípios muito semelhantes ao do relógio de quartzo. A grande diferença está no fenômeno físico responsável pela ressonância. Ao invés de ser a resposta a um estímulo macroscópico como no cristal de quartzo, num relógio atômico átomos são excitados por ondas eletromagnéticas e são observadas transições eletrônicas de acordo com a teoria quântica. Por isso são chamados de relógios atômicos.

Também relevante é que a frequência de referência é muito mais alta. Nos relógios atômicos mais usados, empregam-se átomos de césio-133 cuja frequência é 9.192.631.770 Hz. Ou seja, para 9.162.631.770 oscilações, o relógio interpreta que se passou um segundo, o que garante precisão muito maior. Para comparar, um relógio baseado no movimento de rotação da Terra atrasaria um segundo por ano, enquanto os relógios atômicos mais precisos levariam 30 milhões de anos. A altíssima precisão de relógios atômicos é essencial para controlar a frequência das ondas de transmissores de televisão e para os sistemas de navegação por satélite.

Se você se guia por um GPS para chegar a tempo num encontro amoroso, está se aproveitando do trabalho de muitos pesquisadores que desenvolveram e desenvolvem relógios atômicos.