segunda-feira, 2 de novembro de 2009

Do que somos feitos

Há muito que a humanidade se indaga sobre nossa origem e do que é feito o mundo. Os primeiros relatos de que temos notícia vêm da Grécia Antiga, com a sugestão de que nosso planeta seria constituído de terra, água, fogo e ar. Ainda na Grécia Antiga, Demócrito e Leucipo sugeriram que tudo seria feito de átomos, constituintes indivisíveis. A propósito, o nome átomo que empregamos até hoje significa “sem divisão”, originário do grego em que “tomo” é divisão, e “a” é o prefixo de negação (sem).

A base científica para confirmar a idéia de que a matéria é constituída por átomos foi estabelecida muito tempo depois, no século XIX. Dalton em 1808 apresentou uma teoria sobre a constituição da matéria segundo a qual tudo o que há na natureza seria constituído de partículas indivisíveis e indestrutíveis. Haveria, ainda segundo Dalton, um número pequeno de diferentes tipos de átomos, que poderiam ser combinados para gerar a diversidade de materiais conhecidos.

O conceito de um número limitado de elementos diferentes, ou seja, com átomos diferentes, deu origem à Tabela Periódica, que julgo ser uma das conquistas científicas mais importantes de todos os tempos. A Tabela Periódica, com a ordenação dos elementos em ordem crescente de peso atômico, foi proposta em 1869 pelo russo Dimitri Mendeleev. O posicionamento dos átomos na tabela, e as modificações necessárias com a descoberta de novos elementos, requereram engenhosidade e grande capacidade de observação e análise de resultados experimentais. O porquê da ordenação proposta empiricamente – isto é com base em experiência sem um modelo teórico que pudesse explicar os resultados em detalhe – só surgiu com a teoria quântica.

Ao final do século XIX e início do século XX a convicção de que os átomos eram indivisíveis foi abalada com a verificação de que átomos contêm núcleos, carregados positivamente, rodeados por elétrons, que têm carga negativa. Novos modelos atômicos foram propostos, culminando com o aceito atualmente, ditado pela teoria quântica. Neste modelo, o núcleo concentra quase toda a massa do átomo, a despeito de representar apenas uma pequenina fração do tamanho do átomo. Para comparar, se o átomo fosse do tamanho de um estádio, como o Maracanã, o núcleo seria do tamanho de uma bola de futebol no seu centro.

Mas o núcleo também não é indivisível. Ele contém prótons, carregados positivamente, e nêutrons, que percebe-se pelo nome são neutros eletricamente. Além disso, os prótons e nêutrons são eles próprios constituídos de outras partículas, os quarks. Estes últimos são considerados partículas elementares, que foi a nova denominação encontrada para descrever as entidades de fato indivisíveis. Os elétrons também são partículas elementares.

Ao comentar a Tabela Periódica, mencionei peso atômico, que é a massa do átomo. Obviamente crescente com o número de prótons e nêutrons no núcleo. O elemento mais leve, o hidrogênio, tem apenas um próton. À medida que cresce o peso atômico, aumenta também a repulsão elétrica entre os prótons, uma vez que todos têm carga positiva. Como explicar então a estabilidade dos átomos? Se os prótons estão tão próximos entre si, pois o núcleo é pequeno, por que eles não se separam devido à repulsão? Ocorre que há entre prótons e nêutrons as forças nucleares atrativas. Estas últimas são de alcance muito pequeno, só se manifestando dentro do núcleo, e garantem a estabilidade do núcleo e consequentemente do átomo.

Quando o tamanho do átomo aumenta muito, com um número muito grande de prótons, a repulsão elétrica começa a vencer as forças nucleares, e o átomo fica instável. Este é o caso do urânio, que tem 92 prótons, e é instável. Ao perder partículas, um átomo de urânio libera energia, que é o princípio da geração de energia nuclear.

A importância da comprovação de modelos atômicos foi enfatizada pelo grande físico do Século XX, Richard Feynman, que disse que se só pudéssemos deixar uma única sentença para a próxima geração, ela deveria ser: “Tudo é feito de átomos”.

segunda-feira, 17 de agosto de 2009

As ciências do Século XXI

O início de um século é sempre oportunidade para fazer previsões das mais diversas sobre como será o século. Como a maioria de nós não estará aqui para verificar as previsões, é tentador ousar. Vou hoje cair nessa tentação, e prever quais ciências mais se desenvolverão neste século que há pouco se iniciou.

Começo com um retrospecto do que aconteceu no Século XX, em que houve mais desenvolvimento tecnológico do que em todos os séculos anteriores somados. Há várias possíveis razões para tanto desenvolvimento em tão pouco tempo. Mas se eu tivesse que arriscar uma única razão, diria que foi crucial o decifrar da estrutura da matéria. Pois descobrir como são formados os átomos, e como eles se juntam para formar moléculas, líquidos e sólidos, foi essencial não só para entender a natureza, mas também permitir fabricar muitas coisas. Como os dispositivos eletrônicos de um computador e outros aparelhos.

A partir do advento de modelos que explicam a matéria, não é difícil entender por que a física, a química, e as engenharias tenham evoluído tanto. Além disso, à medida que problemas mais complexos puderam ser resolvidos, outras ciências foram beneficiadas. Até porque a matemática – na qual se baseia a segunda linguagem do conhecimento, a dos formalismos matemáticos – passou a ser utilizada de maneira crescente.

Um resultado de tanto desenvolvimento para a organização do conhecimento foi a proliferação de novas áreas. Para as engenharias, no início do Século XX havia apenas algumas modalidades, como Engenharia Civil, Engenharia Mecânica e uma incipiente Engenharia Elétrica. Um século depois, além das mencionadas, temos Engenharia de Alimentos, de Materiais, Eletrônica, Mecatrônica, Química, Ambiental, etc. O Século XX também assistiu à consolidação como áreas independentes da Lingüística, da Psicologia e Ciências Sociais, entre outras.

Terminamos o Século XX, portanto, com uma diversidade enorme de áreas do conhecimento, em grande contraste com os tempos da Grécia Antiga, em que a Filosofia englobava quase todas as fontes de conhecimento. É interessante notar, entretanto, que a Nanotecnologia, que tem caráter integrador e multidisciplinar, de certa forma retoma a idéia de uma área que abranja aspectos diversos do estudo da Natureza.

Chegou a hora das previsões. A minha primeira, talvez mais ou menos óbvia, é que continuaremos a ver grandes progressos em biologia e em áreas da saúde. Com o uso de metodologias experimentais e formalismos matemáticos cada vez mais sofisticados para entender sistemas biológicos, compreenderemos o “funcionamento” dos seres vivos de maneira mais e mais detalhada. Com as descobertas da genômica e produção de remédios a partir da nanotecnologia, por exemplo, acredito que em 20 ou 30 anos, os avanços em biologia, medicina e ciências da saúde em geral, permitirão um novo patamar para a vida humana. Não só com uma expectativa de vida maior, mas também com mais qualidade. Será influência direta dos benefícios da tecnologia.

Há, entretanto, muitos problemas da humanidade que não dependem só de tecnologia. Na verdade, não é por falta de tecnologia que nossos maiores problemas – fome, guerras, terrorismo, devastação do meio ambiente – não são resolvidos. Carecemos de vontade e união para resolver tais problemas. Precisamos, portanto, estudar e compreender o comportamento humano, desenvolver e implementar políticas sociais eficazes, encontrar meios de redistribuir riquezas.

Tudo isso está ligado às ciências humanas e sociais, cujo progresso pode ajudar a que atinjamos as metas acima. Por outro lado, por sua complexidade, essas áreas pouco se beneficiaram até o momento do uso de formalismos matemáticos. Prevejo que isso acontecerá nas próximas décadas, e fará deste o século das ciências sociais e humanidades.

Nanotecnologia chega ao Nobel

A divulgação do Prêmio Nobel de Física de 2007, concedido aos pesquisadores Albert Fert, da França, e Peter Grünberg, da Alemanha, foi agradável surpresa para os entusiastas da nanotecnologia. A descoberta que levou ao Nobel ocorreu em 1988, quando foi observado o fenômeno de magnetorresistência gigante em materiais magnéticos preparados com métodos da nanotecnologia.

A magnetorresistência é uma característica de metais, que têm sua condutividade elétrica afetada pela aplicação de um campo magnético, como de um ímã. Em geral esse efeito é bastante pequeno, com uma alteração na resistência à passagem de corrente elétrica de apenas 1 a 3%. A grande descoberta foi a de que estruturas metálicas dispostas em camadas de dimensões nanométricas (1nm é um milionésimo de 1 mm) podem ter sua resistência alterada em até 50%. Tais estruturas continham sanduíches de ferro recheados com uma camada de apenas 3 átomos de cromo de espessura. Deu-se o nome a esta propriedade de magnetoresistência gigante.

À primeira vista, essa descoberta parecia ficar apenas no âmbito da física, do magnetismo. Entretanto, logo se percebeu que uma alteração tão grande numa propriedade elétrica de um material poderia ser explorada em aplicações práticas. Isso ocorreu com as memórias de computadores, uma vez que já se empregavam materiais magnéticos para produzir os discos rígidos. Nestes, a gravação da informação é feita por um cabeçote magnético que aplica pulsos de corrente elétrica para magnetizar o disco. A leitura é feita pelo mesmo cabeçote, ao detectar correntes quando passa sobre regiões magnetizadas do disco. A vantagem de empregar magnetorresistência gigante foi a de permitir produzir elementos de memória cada vez menores.

O resultado é conhecido por todos. Com o grande aumento da capacidade de memória, foi possível fabricar computadores de colo e de bolso. Mais recentemente permitiu a criação dos aparelhos MP3 e MP4. De certa forma, houve uma revolução na maneira pela qual ouvimos música e armazenamos informações. Tudo isso devido a uma descoberta de física!

Talvez a publicidade associada ao Prêmio Nobel convença um número maior de pessoas da importância de pesquisa básica para o desenvolvimento de uma Nação. Principalmente em áreas multidisciplinares, com abordagens integradas, como é a Nanotecnologia. Para aqueles que trabalham neste campo, entretanto, as conseqüências benéficas não são surpresa. A cada dia são relatados casos em que a organização de materiais com controle no nível atômico e molecular faz com que propriedades diferenciadas apareçam. Como foi o caso dos sanduíches de ferro e cromo que apresentaram magnetorresistência gigante.

O artigo científico que primeiro descreveu a magnetorresistência gigante, publicado em importante revista americana, tinha um brasileiro como primeiro autor. É o Prof. Mário Baibich, da Universidade Federal do Rio Grande do Sul. Tínhamos a expectativa de que ele também pudesse ser agraciado com o Prêmio Nobel, que seria o primeiro concedido a um brasileiro.

O possível júbilo que tal acontecimento teria gerado, para mim foi compensado com a grandeza da reação do Prof. Baibich ao tomar conhecimento do Prêmio. Além de se declarar extremamente feliz com o Prêmio que seu colaborador francês recebeu, humildemente disse não se sentir frustrado porque o Prêmio foi concedido não apenas pela descoberta, mas também pelo desenvolvimento de áreas relacionadas à magnetorresistência gigante. O Prêmio é de cerca de 1,5 milhão de dólares. À grandeza da atitude do Prof. Baibich não se pode atribuir preço.

Descobertas por acaso

O sonho de qualquer cientista é descobrir algo espetacular, que possa contribuir grandemente para o avanço da ciência, ou explicar fenômenos que há muito se tentava entender. Ou ainda permitir grande retorno para a sociedade. Quem não gostaria de descobrir a cura para a AIDS ou o câncer? Nesses sonhos, imagina-se atingir metas buscadas com método científico, e que a descoberta advenha de um lampejo de inteligência, ou quiçá, genialidade.

Mas não é sempre assim. Em muitas descobertas importantes da história, o acaso teve papel predominante. São muitos os casos em que a descoberta é quase que totalmente fortuita. Em que o pesquisador descobre algo importante sem querer, sem estar procurando ou minimamente interessado no problema que levou à descoberta. Isso não desmerece de nenhuma maneira o trabalho do cientista. Mesmo quando a sorte ajuda, ainda assim é necessária capacidade de identificar a descoberta e reconhecer sua importância e implicações.

Menciono um exemplo recente de descoberta por acaso. Trata-se da descoberta da condução elétrica em polímeros, em 1977, a partir de um erro de comunicação entre um pesquisador japonês, Prof. Shirakawa, e seu estudante coreano. Ao receber a receita para sintetizar o polímero, o estudante compreendeu erroneamente e colocou muito mais de um produto químico do que deveria. Com isso, o polímero que seria praticamente incolor apareceu de cor metálica.

A astúcia do Prof. Shirakawa fez com que ele não só percebesse que havia algo muito errado, mas também que o material obtido poderia ser muito importante. De fato, pouco tempo depois ele mostrou o material a dois outros professores, Alan Heeger e Alan MacDiarmid, dos EUA, que juntos propuseram que os plásticos também podem conduzir eletricidade. Esta descoberta e o subseqüente desenvolvimento da área – que hoje permite até que se pense em produzir TVs de plástico – fizeram com que os três professores, Shirakawa, Heeger e MacDiarmid, recebessem o Prêmio Nobel de Química em 2000.

Uma descoberta antiga, completamente por acaso, foi a da relação entre eletricidade e magnetismo. Desde a Grécia Antiga, eram conhecidos fenômenos de eletricidade – por exemplo a geração de cargas por atrito entre dois corpos – e de magnetismo, com a atração e repulsão em ímãs. Mas somente no início do Século XIX, por volta de 1820, é que se descobriu que uma corrente elétrica poderia afetar a agulha de uma bússola. Ou seja, a partir de eletricidade é possível gerar magnetismo.

Esta descoberta fez com que Michael Faraday, um cientista inglês, empreendesse uma busca que durou quase uma década. Imaginou Faraday que se eletricidade gera magnetismo, o inverso também deveria ocorrer, com magnetismo gerando eletricidade. A comprovação dessa expectativa veio com a lei de indução de Faraday, na qual se baseia a geração de energia elétrica nas usinas hidrelétricas.

Embora esta coluna tenha enfatizado descobertas fortuitas, não posso deixar de mencionar que contribuições científicas podem ter caráter completamente distinto. Ilustro com duas descobertas de Albert Einstein, em 1905. A teoria da relatividade previu a contração espacial e a dilatação temporal, que só puderam ser comprovadas anos mais tarde. Já a outra descoberta, a do efeito fotoelétrico, foi uma teoria que explicou prontamente um efeito observado em 1887, dezoito anos antes.

Noutro dia li nos jornais uma outra descoberta por acaso. A da cura da calvície. A julgar pelo número de calvos que andam por aí, ou por aqui, esta descoberta pode ter sido fortuita, mas os resultados parecem não ser definitivos.

Controle remoto e comportamento humano

Dizem que o controle remoto exerce grande fascínio sobre os telespectadores, principalmente pelo poder de trocar o canal da TV a qualquer momento. Parece que na maioria dos lares, são os homens que gostam de manusear o controle. Será busca pelo poder? Para as emissoras de TV, o controle remoto representa um grande problema, já que precisam manter a atenção do telespectador e evitar que este mude de canal. Quando e por que se troca o canal?

Esta pergunta interessa às emissoras por razões óbvias. Meu interesse está numa generalização da pergunta: É possível prever o comportamento humano?

Uma importante corrente de filósofos e boa parte dos especialistas em ciências sociais e psicologia acreditam ser impossível descrever detalhadamente o comportamento humano, de tão complexo que é. E tão dependente de variáveis sobre as quais há pouco ou nenhum controle. Por outro lado, há muitos cientistas que acham ser possível aplicar ao estudo do comportamento humano métodos de análise comumente empregados nas ciências exatas, e com isso ter alguma capacidade de explicar e prever comportamentos. Esta também é minha opinião.

Suponhamos uma experiência imaginária com um sistema computacional para prever quando um determinado telespectador mudará de canal. Para desenvolver tal sistema, filmaremos o telespectador por meses a fio, registrando todas as suas reações, movimentos de olhos, pernas, braços e tronco. Todas as imagens serão digitalizadas e armazenadas num grande banco de dados. Além disso, monitoraremos a pressão e batimentos cardíacos, e o que é mais importante, registraremos sua atividade cerebral. Isso é possível com tomografia computadorizada, em que sinais elétricos são captados em diferentes regiões do cérebro, que podem ser correlacionados com sensações de prazer, tristeza, etc. O conhecimento sobre a atividade cerebral está longe de ser completo, mas já pode dar bons indicativos com a tecnologia atual. Por último, registraremos as condições da sala de TV, como temperatura, iluminação e localização do telespectador. Nosso sistema terá informação, também, de tudo o que a TV está mostrando.
Manipular e interpretar a imensa quantidade de dados armazenados por um sistema como o descrito acima é um grande desafio. Para isso podemos recorrer a métodos de computação, como mineração de dados, visualização de informação, e inteligência artificial. Tudo isso será integrado no sistema que ainda empregará métodos estatísticos e modelos matemáticos, para finalmente fazer a previsão do que o telespectador fará a partir do que está vendo na TV.

Há várias perguntas que se pode fazer sobre o experimento. Em primeiro lugar, vale a pena tanto esforço só para saber uma única informação, a de quando o usuário troca o canal? E que vale só para um usuário? Mais importante ainda é que com a tecnologia atual, lidar com tantos dados para a previsão fará com que o sistema demore muito até chegar numa resposta. Ou seja, ao analisar o comportamento presente do telespectador, talvez o computador leve horas para prever o que o telespectador fará nos próximos segundos. Isso obviamente não serve como sistema de previsão. Mas lembremos que a capacidade computacional está aumentando rapidamente. Não é inconcebível imaginar que tarefas que hoje demandam horas, daqui a algum tempo requererão apenas alguns segundos.

Para o leitor que acha o sistema de previsão complicado demais, não servindo de argumento a favor dos que acreditam ser possível prever o comportamento humano, dou exemplos mais simples. Você concorda que uma pessoa que detesta futebol mudará de canal rapidamente quando estiver passando uma partida na TV? Será apenas questão de saber quanto tempo levará a mudança no controle remoto. Se eu fosse o telespectador sob análise, entretanto, você pode apostar que eu dificilmente mudaria de canal se estivesse passando um jogo ao vivo do Santos.

Tradução automática para a Internet

O acesso à Internet aumentou enormemente nossas possibilidades de obter informações do mundo todo. Mas nem tudo que está na Internet nos é acessível porque podemos não compreender o conteúdo, escrito em outras línguas. Grande parte do material da Internet está em inglês, e menos de 10% da população mundial têm o inglês como língua materna. Mesmo considerando que muitos já têm conhecimentos rudimentares de inglês, como segunda língua, a maioria da população ainda fica excluída.

A dificuldade no acesso é ainda maior quando o conteúdo está em línguas que usam diferentes símbolos ou alfabetos. Para nós brasileiros, ainda é possível tentar adivinhar um pouco do conteúdo em línguas românicas, como o espanhol ou italiano, mas é impossível sequer imaginar o que contém uma página em chinês, japonês, russo ou árabe. O mesmo certamente se aplica aos povos asiáticos para ter acesso às páginas em línguas românicas, ou em inglês.

Essa barreira da língua para um acesso universalizado ao conteúdo da Internet só pode ser vencida com sistemas de tradução automática. A tradução por humanos é descartada porque não seria factível encontrar tradutores para tantas línguas, que fossem capazes de traduzir tanto material colocado a cada dia na Internet.

Sistemas de tradução automática nasceram praticamente na mesma época da criação dos computadores. Aliás, uma das primeiras tarefas que se imaginou para um computador era a de traduzir textos de uma língua para a outra. A primeira grande iniciativa em se obter tradução por computador foi do governo norte-americano, no início da Guerra Fria. Era uma tentativa de processar de maneira mais eficaz as informações captadas por seus sistemas de espionagem.

Apesar de bastante antiga, a área de tradução automática ainda tem muitos desafios a vencer para que tradutores de boa qualidade sejam gerados. As dificuldades são semelhantes àquelas que mencionei em coluna passada, quando expliquei as razões pelas quais ainda não conseguimos nos comunicar eficientemente com o computador. Tais dificuldades estão normalmente associadas a ambigüidades, tanto de palavras que possam ter mais de um significado, como nos diferentes arranjos das palavras numa sentença.

Um exemplo de problema com tradução que ficou famoso foi a da sentença “O espírito é forte, mas a carne é fraca”, traduzida do inglês para o russo nos primórdios da tradução automática. Em inglês, a sentença era “The spirit is strong, but the flesh is weak”, que foi traduzida para o russo como algo “A vodka é boa, mas a carne está estragada”.

Por que um erro crasso numa sentença tão simples? Acontece que “spirit” em inglês pode ser espírito ou bebida destilada, como uísque ou vodka. E o “is” do inglês pode ser do verbo ser ou do verbo estar. O tradutor automático para o russo acabou por escolher o verbo estar, o que distanciou ainda mais a sentença traduzida do significado da sentença original.

Para melhorar a qualidade de tradutores, hoje empregam-se métodos que vão além daqueles baseados em tradução palavra por palavra. Nesses métodos, determina-se a estrutura sintática da sentença original, que é mapeada numa estrutura equivalente na língua destino. Só então as palavras são traduzidas. Para algumas línguas, a qualidade já é aceitável, principalmente para textos técnicos, ou que não envolvam metáforas, gírias, ou expressões de duplo sentido.

Continua sendo um sonho poder aceder material de várias línguas através da tradução totalmente automática. Da mesma forma que para nos comunicarmos com uma máquina, será preciso esperar décadas para realizá-lo.

Einstein e a relatividade

Albert Einstein pode ser colocado entre os maiores cientistas de todos os tempos, e suas contribuições têm hoje aplicações diretas nas tecnologias das quais nos beneficiamos, como na geração de energia nuclear. Mais importante ainda é que os conceitos desenvolvidos em suas teorias ajudaram a desvendar o funcionamento dos materiais em particular, e da Natureza em geral. Apenas no ano de 1905, Einstein publicou três artigos científicos que revolucionaram vários ramos da ciência. Cada um deles, independentemente, já valeria um prêmio Nobel, o que Einstein acabou ganhando pelo trabalho com a explicação do efeito fotoelétrico.

Talvez o mais conhecido deles, entretanto, seja o trabalho sobre a relatividade. Foi uma grande quebra de paradigma, porque sua teoria aparentemente viola o senso comum. Não é difícil explicar por quê. Suponhamos dois carros trafegando por uma estrada, um a 100 km/h e outro a 90 km/h. Se estiverem em sentido opostos, a velocidade relativa de um ao outro será de 190 km/h. Por outro lado, se tiverem o mesmo sentido, a velocidade relativa é de apenas 10 km/h. Isso é sentido facilmente num carro na estrada, em que percebemos carros no sentido contrário passando em alta velocidade. É a chamada relatividade de Galileu, facilmente experimentada em nosso cotidiano.

Na relatividade de Galileu, esperamos então que a velocidade da luz advinda de um farol de carro, que se movimenta em direção à pessoa que está medindo a velocidade, seja maior do que se o carro estivesse parado ou se afastando. Einstein postulou, entretanto, que a velocidade da luz é a mesma independentemente de a fonte estar parada ou em movimento. Ou de o observador, que mede a velocidade, estar em movimento ou parado. Usei a palavra “postulou” porque Einstein não tinha como provar a afirmação. Em ciência, muitas leis são “Postulados”, que só serão aceitos se confirmados por experiências.

O postulado de uma velocidade da luz invariável explicava uma experiência, de Michelson e Morley, que não mediram diferença na velocidade da luz quando a Terra estava se aproximando ou se afastando do sol. Muitas experiências posteriores comprovaram a teoria da relatividade de Einstein, que também trouxe outras conseqüências que parecem violar o bom senso. É que com a relatividade, as medidas de tempo e comprimento não são mais absolutas. O relógio de uma pessoa na Terra mede tempo diferente do que o relógio de alguém numa nave espacial em movimento em relação à Terra. A massa de um corpo também já não é constante, pois aumenta com a velocidade do corpo. As diferenças são, como se deve imaginar, muito pequenas e só facilmente perceptíveis se a velocidade da nave se aproximasse da velocidade da luz. Isso não é nada fácil porque a velocidade da luz é de 300.000 km por segundo, ou seja, mais de 1 bilhão de km/h.

O outro postulado de Einstein para a relatividade foi o de que a física deveria ser a mesma, independentemente do referencial. Quer dizer, devemos usar o mesmo formalismo para explicar os fenômenos físicos para observadores que estejam em movimento ou parados num determinado lugar. Isso de certa forma contradiz o jogo de palavras, de que após Einstein podemos dizer que tudo é relativo. Ao contrário. A física é a mesma em qualquer referencial.

Ainda sobre linguagem, há uma curiosidade interessante sobre Einstein. Embora ele tenha em muito contribuído para as idéias que acabaram por fundamentar a teoria quântica, que explica como funciona a matéria, ele nunca ficou satisfeito com essa teoria. Para expressar sua desconfiança na teoria quântica, que prevê ocorrência de fenômenos com probabilidades, Einstein dizia não acreditar que Deus jogasse dados.

Einstein sempre achou que a cada ingrediente de uma teoria deveria corresponder uma entidade do mundo real, e isso não é possível na abstrata teoria quântica. Isso é assunto para uma próxima coluna.

O sal que já valeu ouro

O sal de cozinha é hoje um dos alimentos mais baratos, não sendo nem aceito como parte de ingresso em eventos beneficentes. Mas não foi sempre assim. Na Idade Média, o sal valia mais do que ouro em alguns lugares. Parece estranho, mas devemos lembrar que o uso do sal era a única maneira de preservar alimentos. Na Europa, por exemplo, havia necessidade de conservar comida para os meses de inverno, em que o frio e a neve impossibilitavam o cultivo e até a caça. Para os locais mais distantes do mar, como obter sal?

Um exemplo interessante é a mina de sal de Wieliczka, na Polônia, considerada patrimônio cultural da Unesco. A explicação para haver uma mina de sal na Europa Central, tão longe do mar, é que há milhões de ano havia ali um mar. Com o movimento das placas tectônicas o mar desapareceu e todo o sal ficou sob o solo. A mina foi explorada desde o século XIII até 1996, quando já não compensava extrair sal. Hoje a mina é aberta à visitação, um verdadeiro museu subterrâneo com mais de 2000 cavernas e esculturas em sal.

Os mineiros de Wieliczka na Idade Média eram todos ricos, e os empregos – ou cargos – eram passados de pai para filho. Apesar dos grandes ganhos devido ao alto valor do sal, que valia tanto ou mais que ouro à época, o trabalho era extremamente perigoso. Não só devido à precária iluminação mas também por causa de deslizamentos. A água de infiltrações era um inimigo implacável. Em algumas épocas, a cada ano 10% dos trabalhadores morriam de acidentes na mina.

Hoje o sal vale muito menos do que na Idade Média. Mas continua essencial para a vida, sendo regulador de muitas funções. É por isso que sempre ouvimos falar das necessidades nutricionais de sais minerais. São muitas as ações de um sal no corpo humano. Em muitos casos, a ação depende do tipo de sal. Há o que se chama de seletividade, em que um sal de iodo pode ter ação diferente de um sal de sódio. Mas há algo em comum na atuação dos sais. Sendo solúvel em água, uma molécula de sal gera íons, ou seja, cargas positivas e negativas no meio aquoso – abundante no corpo humano, cujo constituinte principal é a água.

As forças entre cargas elétricas estão entre as mais importantes da Natureza. Cargas são denominadas positivas ou negativas, como as chamou Benjamin Franklin, o grande estadista e cientista americano que viveu no Século XVIII. Cargas de mesmo sinal – positivas ou negativas – se repelem, ao passo que cargas de sinal contrário se atraem. Ao fornecer cargas ao meio aquoso, o sal afeta diretamente outras moléculas no meio.

Tomemos como exemplo macromoléculas, como proteínas, que podem estar carregadas eletricamente. Se tiver uma grande quantidade de carga negativa (ou positiva), a molécula adotará uma conformação em linha, esticada, devido à repulsão entre as cargas. Na presença de sal, as cargas de sinal contrário advindas do sal “blindam” as cargas da molécula, diminuindo as forças de repulsão. A molécula se enovelará, então. Não é difícil imaginar o efeito de uma estrutura que passe de linear a um novelo. É este o princípio da coagulação.

Uma outra função mais espetacular dos sais está na transmissão de comandos do cérebro para os músculos e órgãos. Esses comandos são disparados por alterações bruscas na quantidade de cargas elétricas na membrana que circunda as células de nosso corpo. Tais mudanças estão relacionadas ao movimento de íons de sódio e potássio – oriundos de sais e que têm tamanhos diferentes - atravessando a membrana da célula.

Mencionei essas funções dos sais para ilustrar por que cientistas de áreas básicas, como físicos, químicos e matemáticos, se interessam cada vez mais por biologia. É que qualquer material – inclusive os que compõem nosso corpo – obedece às mesmas leis de interação entre átomos e moléculas. Estudar tais interações é uma das tarefas da chamada nanociência, que tem assim caráter integrador.

O Vestibular e a escolha de uma carreira – II

Na última coluna enfatizei que a primeira preocupação do vestibulando deve ser em obter a formação mais adequada possível para esses tempos de grandes alterações de tecnologia e mudanças constantes nas atividades relacionadas a muitas profissões. Isso implica em avaliar não apenas o curso e a Universidade ou Faculdade, a serem escolhidos, mas também em verificar os conteúdos a serem ensinados. É importante dominar as linguagens do conhecimento, e adquirir conteúdos que permitam não só bem exercer a profissão escolhida, como mudar de profissão se necessário (ou desejado).

Antes de passar a algumas recomendações, ressalto que a dúvida sobre a escolha na carreira é mais que natural. Afinal, não é razoável imaginar que uma pessoa – não apenas os jovens vestibulandos – tenha firmeza em decidir por apenas um tipo de atividade, excluindo outras tantas. Não há nada errado em um jovem pretender fazer Vestibular em áreas distintas, com um curso de Exatas, outro de Humanas ou da área Biológica. Além disso, não conhecemos uma profissão detalhadamente antes de exercê-la. Entretanto, por praticidade e porque não conseguimos a aprender fazer de tudo, precisamos escolher.

Seguem algumas recomendações:

1) Elimine grandes áreas e atividades para as quais não tem vocação. Facilita para escolhas por exclusão, que podem ser eficazes.
2) A não ser que tenha uma vocação clara para uma profissão muito específica, escolha carreiras mais abrangentes.
3) Não se preocupe tanto com mercado de trabalho hoje e possibilidades de retorno financeiro. É preferível fazer o que se gosta a ingressar em uma carreira prioritariamente pelo provável retorno.
4) Converse com profissionais atuantes nos cursos pretendidos, e obtenha informações sobre as Universidades ou Faculdades que forneçam tais cursos.

Sobre carreiras abrangentes, refiro-me àquelas cuja base permite atuação profissional variada após a formatura. É o caso das Engenharias, das ciências como Física, Química, Matemática e Biologia, além de cursos como Administração, Economia, Ciências Sociais e Direito. Há cursos específicos, também, como a Medicina, que conseguem fornecer base suficientemente ampla de maneira a dar flexibilidade para alterações na carreira, ou de escolhas variadas na mesma profissão.

Mencionei que a preocupação com o retorno financeiro não deve ser prioridade. De fato, esse retorno pode variar muito ao longo do tempo, e a demanda por determinada profissão pode se alterar rapidamente. Por isso, não há segurança de que uma carreira com boas perspectivas de emprego hoje assim se mantenha daqui a 10 anos, quando o ingressante de agora estiver no mercado de trabalho.

Por outro lado, algumas carreiras são reconhecidamente de difícil retorno, como as relacionadas à Música e Arte em geral. Para estas profissões, o jovem deve analisar com frieza: avaliar seu talento e aptidão, e buscar informações detalhadas de como vivem profissionais da área. É comum que uma atividade seja um passatempo maravilhoso, mas não seja prazerosa como profissão. Essas ressalvas têm que ser pesadas em comparação com o desejo de fazer o que se gosta, uma das minhas recomendações mais importantes. Lembrando um provérbio chinês: “Rico não é quem tem muito, mas quem precisa de pouco”.

O leitor deve ter notado que me preocupei em fazer recomendações apenas para aqueles que almejam estar no topo de uma profissão de destaque. Obviamente que sempre existirão profissões igualmente atraentes, que não requeiram curso universitário de qualidade. Mas quem quer atingir a elite intelectual enfrenta menos barreiras externas do que se imagina. Não é preciso ser rico, não depende da cor da pele, condição social, sexo ou origem geográfica. Bastam dedicação e disciplina!

O Vestibular e a escolha de uma carreira - I

A escolha de uma carreira no Vestibular é quase sempre aflitiva para os jovens, e até para suas famílias. Não existem regras para escolher adequadamente, e mesmo os critérios nos quais muitos se baseiam para definir a carreira são subjetivos. Eu também não vou apresentar fórmulas mágicas para a tomada de decisão, mas vou discutir aspectos que podem auxiliar. Farei isso em duas colunas. Na de hoje, vou tratar dos requisitos para formar um profissional bem-sucedido. Na próxima coluna, comentarei as vantagens e desvantagens na escolha de carreiras mais e menos específicas.

Quais características e habilidades esperamos de um profissional do futuro? Independentemente da profissão, a rápida evolução das tecnologias e a crescente importância do conhecimento requerem que o profissional seja capaz de se reciclar, e continuar aprendendo sempre. Em outras palavras, para ser um profissional de sucesso, uma pessoa tem que aprender a aprender.

Entram em jogo as linguagens do conhecimento. Como já enfatizei em coluna anterior, são duas as linguagens do conhecimento que devem ser dominadas para permitir aprendizado eficiente – de qualquer tema. São as línguas naturais, como o português, inglês, etc., e a linguagem dos formalismos matemáticos. A exigência de um bom domínio da língua escrita e falada parece ser óbvia, pois em qualquer profissão precisamos nos comunicar. Vou além. Esse bom domínio é crucial para o profissional adquirir novos conhecimentos, que é importante em qualquer área. Por exemplo, um médico – mesmo com excelente formação – necessitará se atualizar quanto aos novos procedimentos e uso de equipamentos que surgem a cada dia.

A necessidade de uma formação sólida em formalismos matemáticos é menos óbvia para profissões como as de humanidades e ciências biológicas e da saúde. Entretanto, a tendência de abordar questões ou temas de maneira multidisciplinar e integrada é irreversível. Portanto, profissionais de áreas tão distantes da matemática, como lingüistas, do serviço social ou direito, precisarão estar preparados para análise de dados e resultados que requeiram algum tratamento matemático.

Vou exemplificar com o serviço social. Um profissional de alto nível tem que compreender e elaborar políticas eficazes de combate à pobreza, redistribuição de renda, entre outras tarefas. Para tanto tem que analisar programas anteriores, no País ou no exterior, e antever resultados de diferentes tipos de ação. Isso só pode ser atingido com modelos adequados, normalmente envolvendo tratamentos estatísticos e conhecimento matemático que vão além dos adquiridos até o Vestibular. Este exemplo se aplica a muitas outras áreas, o que já é sentido em Biologia, com o advento da Biologia Molecular e Genômica.

Sei que minha análise parece privilegiar cursos universitários das áreas de exatas, por proverem o ferramental dos formalismos matemáticos. Entretanto, estudantes em cursos de exatas em geral exercitam menos sua capacidade de comunicação, e infelizmente raras vezes cursam disciplinas dedicadas a línguas e métodos de análise e síntese de textos. Neste último aspecto, ficam em desvantagem.

De qualquer forma, insisto que uma formação mais abrangente de matemática se faz necessária. Os futuros profissionais devem estar cientes disso. Minha esperança é que os cursos de humanidades e ciências biológicas sejam atualizados – como já está acontecendo em alguns casos – de maneira a estender a formação que oferecem.

As exigências para formar um profissional com grandes chances de sucesso não são poucas, como deve ter ficado claro. Muito já se fala da necessidade de saber inglês e informática – e agora acrescento o requisito de habilidade para analisar resultados. Por outro lado, uma formação de qualidade permite grande flexibilidade em possíveis mudanças de profissão, hoje tão comuns. Isso é o assunto da próxima coluna.

TV de Plástico

O monitor de um computador tradicional incorpora tecnologia de mais de 100 anos, em contraste com o computador propriamente dito cujos dispositivos são obtidos com avançadas tecnologias de microeletrônica. Para o monitor, emprega-se a mesma tecnologia dos televisores tradicionais, que consiste em um tubo – chamado de tubo de raios catódicos.

O funcionamento de um tubo é baseado na geração de feixes de elétrons que excitam uma cobertura fosforescente da tela. Os feixes são dirigidos por eletricidade e magnetismo, definindo quais partes da tela devem ficar iluminadas e com que cor. Devido à influência do magnetismo, não podemos aproximar ímãs de uma TV, por distorcerem as imagens e até danificarem o tubo permanentemente. Há outros aspectos interessantes desta tecnologia de tubos. Em primeiro lugar, os tubos precisam ser compridos para controlar as trajetórias dos feixes de elétrons, não permitindo produzir telas finas.

Nos últimos anos, surgiram duas novas tecnologias para a TV e monitores de computador: a de cristal líquido, conhecida popularmente por LCD (acrônimo da expressão inglesas liquid crystal display), e a de plasma. Um cristal líquido é um material com moléculas que se ordenam segundo uma direção preferencial, apesar de estarem num líquido. Tal ordenação pode ser controlada por eletricidade, sendo possível alterar a transparência do cristal líquido, o que é explorado para gerar as imagens. Como as moléculas do cristal líquido não emitem luz, são necessárias fontes de luz adicionais. O cristal líquido é mantido entre placas – geralmente de plástico, e por não haver feixes viajando no interior do aparelho, é possível obter telas finas.

O plasma é considerado como o quarto estado da matéria, juntando-se aos outros três: sólido, líquido e gasoso. É um gás que contém cargas elétricas e por isso possui propriedades especiais, como a de emitir luz a partir de uma descarga elétrica. Na TV a plasma, tem-se um número enorme de pequenas lâmpadas, como as fluorescentes, emitindo. As televisões de plasma e LCD são semelhantes em muitos aspectos, sendo que ambas apresentam a desvantagem de não possuir um ângulo de visada grande, o que requer que muitas vezes tenhamos que reposicionar a tela para melhor observarmos a imagem.

Há agora a expectativa de que uma nova tecnologia possa trazer uma revolução para nossos aparelhos de TV e monitores. São os plásticos luminescentes, que permitirão inclusive telas flexíveis. A descoberta de que plásticos especiais podem emitir luz foi feita em 1990. A partir de então iniciou-se uma corrida científica e tecnológica para obter plásticos com uma luminância cada vez maior, ou seja, com capacidade de emitir mais luz.

Já se demonstrou ser possível produzir aparelhos luminescentes variados, e não apenas telas de TV. Telas para celulares e brinquedos são algumas possibilidades. Pretende-se, também, iluminar ambientes com telas de plástico nas paredes, como se fossem pinturas. Outra aplicação seria no chamado jornal eletrônico. Com uma folha de plástico dobrável poderia ser instalado um dispositivo que capte o conteúdo do jornal via Internet sem fio, permitindo ao leitor acompanhar as notícias em tempo real. Como fazemos hoje com as versões eletrônicas de jornais na Internet.

Embora já haja alguns produtos no mercado, como o display de aparelhos de DVD, tudo isso ainda deve levar um tempo para se concretizar. O maior desafio é a instabilidade do plástico que deixa de emitir luz rapidamente com contacto com o ar. É uma dificuldade aparentemente só tecnológica, que esconde uma série de problemas científicos – notadamente de materiais para nanotecnologia. Por isso, não é fácil prever quando teremos a disseminação de produtos plásticos emissores de luz.

Que será maravilhoso ter uma TV de plástico, não há dúvida.

O mundo maravilhoso dos plásticos

É certo que hoje as crianças têm muito mais brinquedos do que há algumas gerações. Isso se deve a vários fatores, como a urbanização com o acesso mais fácil a bens de consumo, além das mudanças na sociedade que se tornou muito mais “consumista”. Há, porém, um outro aspecto comumente ignorado: a disponibilidade de brinquedos de plásticos. Pois a indústria de plásticos se desenvolveu enormemente nas últimas décadas do século XX, produzindo artefatos – não só brinquedos – cada vez mais sofisticados e a custos menores.

Mas que tipo de material é um plástico? Para responder a esta pergunta, lembro inicialmente que toda a matéria é feita de átomos, de cerca de 100 elementos diferentes, com os quais são feitas as moléculas. Alguns materiais são produzidos apenas com um tipo de átomo, que podem ser ligados fortemente entre si. Este é o caso dos metais, como ouro, prata, ferro, etc, que são sólidos e requerem altas temperaturas para serem derretidos. Algumas outras substâncias são compostas por moléculas, como a água – líquida à temperatura ambiente – ou o sal de cozinha, sólido. Esses dois exemplos são de materiais constituídos de moléculas pequenas.

Os plásticos, por outro lado, são obtidos de moléculas muito grandes. São os chamados polímeros, palavra cuja origem advém da junção de “poli” (muitos) com “mero” (unidade repetitiva). Uma molécula de polímero pode ter milhares ou milhões de átomos ligados fortemente entre si. Não é surpreendente, portanto, que as características dos plásticos possam ser muito diferentes das de outros materiais. Essas moléculas grandes podem ser rígidas ou flexíveis, e até se enovelarem, como um espaguete. Ainda sobre nomenclatura, saliente-se que todos os plásticos são polímeros, mas nem todos os polímeros são plásticos. Exemplos interessantes de polímeros que não chamamos de plásticos estão nas dispersões que formam tintas e as borrachas.

Como os polímeros podem ser obtidos a partir de combinações diferentes de vários átomos, e com moléculas de tamanhos que podem variar muito, os materiais resultantes também podem ter propriedades muito diversas. O controle das características é possível mesmo porque os polímeros mais empregados são sintéticos – ou seja, produzidos pelo homem. São fabricados principalmente de derivados de petróleo, e quase sempre contêm átomos de carbono. São por isso chamados de polímeros orgânicos. Há também os polímeros naturais, como a celulose, que também têm imensa aplicação, como na indústria de papel ou na indústria têxtil.

O progresso na indústria de polímeros (ou de plástico) fez com que estejam disponíveis hoje os mais variados produtos de plástico, que substituem de maneira crescente materiais como madeira e metais. Tomando a indústria automobilística como exemplo, há plásticos em quase todas as partes de um carro. Pode ser no assento, na direção, no painel, em muitos acessórios e até mesmo nos pára-choques. É que ao contrário dos plásticos empregados no início de sua popularização, há atualmente plásticos especiais, com dureza e durabilidade comparáveis à de metais. Em alguns casos com a vantagem de uma maior capacidade de absorção de impactos.

A despeito da onipresença do plástico em nossas vidas, diria que isso é só o começo. Ocorre que os plásticos até o momento são quase sempre usados por suas características mecânicas – flexibilidade para fios e cabos, plasticidade para as embalagens, etc. Ou por sua característica de isolamento elétrico, como nos isoladores elétricos. Mas há uma nova geração de plásticos com propriedades ainda mais espetaculares. São plásticos que podem conduzir eletricidade; plásticos que podem emitir luz ou ter sua cor alterada mediante algum tipo de estímulo.

Podemos, assim, antever um número enorme de novas aplicações para o futuro próximo. Que tal uma TV de plástico?

A Lei de Murphy

A chamada Lei de Murphy já entrou no cotidiano de muitos de nós de forma anedótica, quase sempre para dizer que numa briga entre sorte e azar, este último vence. Há inúmeras formulações para a Lei de Murphy. Dias desses meu filho achou na Internet um texto que continha 100 maneiras de formular a Lei de Murphy, algumas muito pitorescas. Por exemplo: “Se você perceber que uma coisa pode dar errado de 4 maneiras e conseguir driblá-las, uma quinta surgirá do nada”. Ou ”A probabilidade de o pão cair com o lado da manteiga virado para baixo é proporcional ao valor do carpete.”
Talvez essas formulações advenham de incidentes de pessoas que acreditam não ter sorte. Obviamente que não há problema algum em imaginar leis que possam reger nosso futuro. Isso, entretanto, esconde um fato comum na vida das pessoas: o de tirar conclusões a partir de dados sem valor estatístico. Se vestirmos uma certa roupa por 2 ou 3 vezes e o nosso time ganhar, podemos achar que é a roupa que dá sorte e influencia o resultado. Se tivermos um pressentimento de que algo ruim acontecerá, e de fato coisas desagradáveis nos aconteçam, podemos pensar que tivemos uma premonição.

A comprovação de que eventos de natureza completamente distinta estejam correlacionados exige método científico rigoroso. Para se ter certeza de que uma pessoa tenha de fato premonição (admitindo que isso possa ser possível), é necessário contar os eventos em que a pessoa teve um pressentimento e se este foi confirmado ou não. Após digamos centenas desses eventos, se o número de pressentimentos confirmados for significativamente maior do que os não confirmados, então podemos começar a acreditar em premonição. É claro que um controle de informações desse tipo é muito difícil, o que ilustra quão duro é comprovar qualquer poder especial.

Quando experiências rigorosas são realizadas para comprovar (ou refutar) regras empíricas, como algumas formulações da Lei de Murphy, o resultado é desalentador para aqueles que gostam de crendices. Por exemplo, se experiências com o pão com manteiga forem realizadas um número suficientemente grande de vezes, de modo a ter valor estatístico, é certo que não haverá nenhum efeito do “preço do carpete”. O número de vezes em que a face com manteiga cai virada para baixo será rigorosamente igual (estatisticamente!) ao de vezes em que não cai.

Meu caso favorito de comparações sem valor estatístico é o da famosa afirmação: “No meu tempo a música era muito melhor do que agora”. Esta afirmação saudosista acaba por ser verdadeira sempre, não porque a qualidade da música de um certo período seja melhor do que em outro. Até pode ser, mas não é isso que faz com que a sentença acima sempre seja verdadeira. É porque comparamos amostras estatísticas completamente distintas. Vejamos: na amostra “Música do meu tempo”, vêm à memória as músicas da minha infância, adolescência, juventude. Eu contaria as boas músicas dos anos 70 e 80, além daquelas de que gostava e que não eram bem da minha época. Sempre adorei as marchinhas de carnaval, e talvez as incluíssem nas músicas do “meu tempo” – mas a maioria esmagadora delas foi criada muito antes de eu nascer. Já nas músicas atuais, eu me lembraria daquelas que estão nas paradas, correspondendo a uma amostra de músicas de 1 ou 2 anos. É lógico que qualquer um contará muito mais músicas “boas”, seja qual for o critério usado para rotulá-las de boas, em 20 ou 30 anos (no meu tempo!), do que em 1 ou 2 anos (o tempo presente).

Resolvi mencionar hoje essa maneira não científica de analisar dados ou emitir opiniões por um motivo sério. Se por um lado não há problema em tirar conclusões a partir de observações não rigorosas de dados – como acreditar que a Lei de Murphy possa ser válida – o mesmo não se aplica à situação em que uma comunidade precisa se posicionar diante de assuntos polêmicos. Este é o caso da liberação de alimentos transgênicos ou de pesquisas com células-tronco. A sociedade – não acostumada a debates sobre assuntos de conteúdo científico - tem dificuldade em discernir a partir do noticiário e das propagandas dos diferentes grupos de pressão. Decidir sem respaldo científico nesses casos pode trazer grande prejuízo à Nação.

Comunicando com as máquinas

Passei pela era do vídeo cassete sem saber usá-lo. Nunca consegui programá-lo, e fiquei feliz ao substituí-lo por um aparelho de DVD, pois este sei usar. Bem, não é propriamente usar todas as funções, mas pelo menos não preciso programá-lo. Ainda me arrepio também quando preciso trocar a mensagem ou a data da secretária eletrônica. Chegamos ao cúmulo de ter em casa uma secretária eletrônica distribuindo mensagens em inglês aos desavisados, por um motivo que nunca descobri. Está certo que pode ser charmoso ter secretária eletrônica falando inglês, mas com voz de homem? Em casa? Não pega bem!

No meu mundo ideal, gostaria de dar ordens às máquinas através de comandos falados. Poderia ser com bilhetes escritos, também, mas o bom mesmo era poder comandar as máquinas de casa e do trabalho, com a voz. Coisas simples: “Por favor, acerte o horário do relógio para tal hora”. “Grave o programa no canal 2, às 5 horas da tarde”. Para o telefone celular, então, imagine poder dizer: “Substitua o telefone do meu irmão pelo novo número X”. Um sonho, não?

É verdade que já há muitos aparelhos que recebem comando de voz. Mas suas funcionalidades são muito limitadas, e a chance de erro para tarefas mais complicadas é enorme. Em outras palavras, estamos muito longe da situação descrita em filmes de ficção científica, em que robôs se comunicam com os humanos sem dificuldade. Voltarei a falar dos furos da ficção científica numa outra oportunidade.

Estudos nas últimas décadas de como processar textos escritos ou falados em língua natural, como o português, o inglês ou chinês, explicam por que é tão difícil conversar com as máquinas. Peguemos o caso mais simples dos textos escritos, para evitar a complicação de ter que decifrar o que foi falado. O que um computador precisaria para entender o texto?

Em primeiro lugar, o computador precisa conhecer as palavras. Isso não é difícil. Com a grande capacidade de memória atualmente, é simples armazenar todas as palavras de uma língua no computador. O problema é que algumas palavras têm mais de um sentido – como manga que pode ser fruta ou manga de camisa. Esta dificuldade também não é tão grande porque podemos classificar as palavras no dicionário eletrônico, de maneira a distinguir os 2 significados. As complicações maiores surgem quando uma sentença inteira precisa ser compreendida. O computador precisa fazer análise sintática – que não é fácil nem para os humanos. E resolver muitas ambigüidades. Para saber quem executa as ações, quem ou quais coisas são afetadas, etc.

Há diversas maneiras de tratar os problemas mencionados, e muito se tem investido neste sentido. O grau de sucesso é variável, dependendo do problema e da língua considerada. Por razões óbvias, houve muito mais avanços para o inglês. O que de fato faz com que ainda estejamos muito longe do sonho da comunicação eficaz com um computador, ou uma máquina qualquer, é a necessidade de incorporar conhecimento de mundo.

Por conhecimento de mundo quero dizer que o computador deveria ser capaz de fazer inferências a partir de um contexto. Por exemplo, se eu disser que Leonardo da Vinci esteve em casa ontem, jantando carne de dinossauro, o computador deveria desconfiar de que há algo errado. O “ontem” não poderia ser referência a um dia do século XXI, e nem Leonardo da Vinci poderia comer carne de dinossauro.

Para mostrar que não só as máquinas que podem ter dificuldade em compreender um texto, coloco abaixo um desafio para os leitores. O mesmo foi passado à minha classe no ginásio, pelo querido professor de português de Barretos, João Ferraz. É o seguinte: coloque vírgulas e pontos no trecho abaixo, para que faça sentido.

Maria quando toma banho sua mãe diz ela traga a toalha enxuta.

Se achar difícil, tente a ajuda do computador!

A Revolução na Farmácia

Muitas revoluções passam despercebidas porque as alterações que causam acontecem aos poucos. Este é o caso da revolução por que passa o tratamento médico-farmacêutico nos últimos anos. Longe vai o tempo em que xaropes e lombrigueiros eram os medicamentos do dia-a-dia. Na minha infância, tomar lombrigueiro era um evento especial. Por um lado porque o forte laxante obrigava as crianças a permanecerem em casa. Por outro, para compensar o gosto amargo do remédio, meus irmãos e eu éramos presenteados com guaraná – grande luxo na época.

Hoje podemos aproveitar remédios com sabores agradáveis, e o que é melhor, muito mais eficientes. Para desenvolver os chamados remédios de última geração, milhões de reais são gastos anualmente pela indústria farmacêutica. São 3 os principais objetivos na criação de novos remédios: aumentar a eficácia para combater uma determinada doença, diminuir os efeitos colaterais, e facilitar a administração do medicamento.

Um leitor curioso pode se perguntar: com tanta evolução nos medicamentos, por que não conseguimos nos livrar das dolorosas injeções? Afinal, por que nem todo remédio pode ser administrado com comprimidos ou em líquido? Acontece que o composto ativo, responsável pela capacidade terapêutica do remédio, pode ser constituído de moléculas pequenas – como o analgésico paracetamol. Entretanto, há casos em que o composto ativo é um hormônio, como a insulina, ou mesmo um vírus inativo empregado em vacinas, que podem ser até 1000 vezes maior do que o paracetamol. Não é surpreendente, portanto, que esses compostos muito grandes tenham dificuldade em ultrapassar as barreiras naturais em nosso corpo, para atingir o alvo. Há outras limitações no modo de administrar um remédio. A insulina usada por diabéticos só pode ser administrada via intravenosa. Se o fosse por via oral, a insulina seria destruída em contato com o suco gástrico do estômago.

Controlar como o fármaco é transportado no corpo humano é, assim, crucial para a sua eficácia. Normalmente o composto ativo é misturado a um chamado agente carreador, responsável por “carregar” o composto ativo ao seu destino. Espero grandes avanços nos próximos anos. Daqui a uma década, talvez achemos inacreditáveis as limitações atuais da distribuição do composto ativo no corpo humano. Só para exemplificar, se hoje um paciente tem uma infecção em determinado órgão, muitas vezes toma medicamento que se espalhará por toda a corrente sanguínea, por não ser possível controlar sua chegada ao alvo. Por isso, a dose ingerida tem que ser maior do que a necessária só para o órgão afetado, o que aumenta as chances de efeitos colaterais.

Uma relação que talvez poucos suspeitassem emerge. Desenvolver novos fármacos tem tudo a ver com nanotecnologia. Como já escrevi neste espaço, a nanotecnologia consiste em produzir e controlar materiais na escala nanométrica – de um milionésimo de um milímetro. E o tamanho das barreiras e dos compostos ativos é exatamente de alguns a dezenas de nanômetros. Com a nanotecnologia, pode-se agora projetar verdadeiros nanorobôs, que permitem em princípio controlar a taxa com que o remédio é liberado ao organismo. Uma vez que o nanorobô protege o composto ativo e só o libera em condições pré-determinadas, a administração fica muito simplificada.

Podemos sonhar com uma considerável melhoria em nossa qualidade de vida, inclusive com tratamentos preventivos. A nanotecnologia certamente promoverá enormes avanços nos medicamentos. Mas infelizmente isso não se dá de maneira igual para todo tipo de doença. Para as doenças tropicais, irrelevantes nos países desenvolvidos, os medicamentos ainda são muito menos sofisticados. Aqui, o racionalismo frio da tecnologia e do retorno financeiro não basta! Mas isto é assunto para outra coluna.

O pão nosso de cada dia

Já mencionei neste espaço que a nanotecnologia pode ser muito útil para setores que menos esperamos. Como o de alimentos. Afinal, não comemos “nano coisas” e “nano alimentos” provavelmente não saciariam nossa fome ou sede. Mas alimentos podem ter suas características modificadas por processos na escala nanométrica.

Alimentos líquidos, por exemplo, são quase sempre sistemas coloidais, em que os colóides têm dimensões de dezenas de nanômetros (um nanômetro é milionésima parte de um milímetro). Aqui precisamos recorrer a um dicionário. Coloidal é – grosso modo – um sistema com partículas sólidas dispersas num líquido ou de gotículas em um outro líquido. Por isso, nanotecnologia tem tudo a ver com possíveis melhorias na indústria alimentícia.

Desenvolver alimentos com maior eficiência e de melhor qualidade é uma necessidade de um país exportador, como o Brasil. Obviamente somado ao importante abastecimento de nosso grande mercado interno. Muitas são as possibilidades de aplicar nanotecnologias.

Vou tomar aqui especificamente o caso do leite. Há várias razões para fazê-lo: a primeira delas é sentimental, pois venho de uma família que trabalha com leite há décadas. Meu pai era técnico em laticínios: sabia fazer queijo, manteiga, e apenas para agradar a família e amigos fazia o inesquecível leite maltado. Eu próprio fui leiteiro por muitos anos, e talvez permaneça sempre na alma.

A outra razão é que o leite é uma dispersão coloidal incrivelmente estável. Normalmente uma dispersão perde a estabilidade – com as partículas agregando-se e precipitando – quando adicionamos sal. Vocês podem tentar em casa adicionar sal no leite e perceberão que ele não ficará coalhado. O mesmo vale para variações de temperatura, pois o leite pode ser aquecido e resfriado, sem formação de grandes aglomerados de partículas.

A indústria moderna de laticínios já introduziu muitas inovações. Além de agora ser possível armazenar leite por longos períodos, impensável há algumas décadas, hoje são comercializados leites com suplementos alimentares, etc. Eu diria, entretanto, que isso é só o começo. Por se tratar de dispersão coloidal, é possível empregar metodologias e conhecimentos da nanotecnologia, para um controle cada vez mais apurado das propriedades do leite. Por exemplo, pode-se adicionar nutrientes – ou mesmo remédios – para consumidores com necessidades específicas.

Há uma série de outras possíveis aplicações para a nanotecnologia. Como o recobrimento de frutas para retardar o amadurecimento e aumentar tempo de prateleira – essencial para a exportação. Tal recobrimento precisa ser feito com material biocompatível, normalmente em películas muito finas – idealmente nanoestruturadas – que não alterem a cor e sabor das frutas.

Outra área que pode se beneficiar da nanotecnologia é o controle de qualidade. Como para garantir que um alimento satisfaça os requisitos da vigilância sanitária. De novo, este é um ponto crucial para a exportação, como demonstrado recentemente nos prejuízos com os focos de febre aftosa que levaram muitos países a suspenderem a importação de carne do Brasil.

Controlar a qualidade requer métodos de análise para detectar impurezas, contaminações, entre outras características. Para tanto, sensores dos mais variados tipos, obtidos de processos nanotecnológicos, podem ser usados. Como uma língua eletrônica, capaz de distinguir sabores muito parecidos e detectar pequenas contaminações em um alimento líquido.

O Brasil já é um gigante do agronegócio. Precisamos agora investir em nanotecnologia para ampliar nossa capacidade de produção de alimentos com maior valor agregado. E assim garantir o pão nosso de cada dia.

Por que nanotecnologia

São lindos os vitrais das catedrais européias, cores vivas obtidas a partir do ouro. Mas se é de ouro não deveria ser sempre dourado? Há séculos, artistas e artesãos já sabem como obter cores variadas a partir do ouro. São na verdade nanopartículas, cuja cor varia com o tamanho. Quer dizer que produtos nanotecnológicos existem há muito mais tempo do que pensávamos? Sim! Mas, a diferença é que não se podia imaginar que aquela tinta de várias cores continha nanopartículas, e nem se poderia medir seu tamanho.

Explico então o termo nanotecnologia. Nano – do grego anão – é um prefixo para denominar a bilionésima parte de alguma grandeza. Se for nm (nanômetro), é a bilionésima parte de um metro, ou milionésima parte de um milímetro. Para a medida de tempo, 1 ns (nanossegundo) é a bilionésima parte de um segundo. Pois bem, nanotecnologia é a área que lida com materiais na escala de 1 a 100 nm, como é o caso das nanopartículas de ouro. Só para comparar uma célula tem dimensão típica de 1000 nm, uma proteína pode ter 100 nm.

O termo “nanotecnologia” foi cunhado por um pesquisador americano, Eric Drexler, em 1986, mas toda a área foi inspirada numa aula do físico brilhante Richard Feynman, também americano. Em dezembro de 1959, em uma palestra com caráter de divulgação científica, Feynman lançou o desafio para que alguém tentasse armazenar toda a informação da Enciclopédia Britânica na cabeça de um alfinete. Ele dizia que isso deveria ser possível, pois não há nada nas leis da física que proíba a manipulação da matéria átomo por átomo.

Como um átomo tem dimensões de décimos de 1 nm, esta proeza de escrever informação em espaços muito pequenos seria factível. O tempo mostrou que Feynman estava certo, e hoje não só é possível armazenar informações com a densidade que ele sugeriu, mas também manipular átomos isoladamente.

Na concepção de Drexler, a nanotecnologia lidaria com fabricação de estruturas e máquinas pequeníssimas, como nanorobôs, por exemplo. Muitos pesquisadores perceberam, entretanto, que a natureza – os seres vivos, em particular – depende de fenômenos que ocorrem na escala nanométrica.
Portanto, fazia sentido estudar na área que acabou por se denominar nanociência e nanotecnologia uma série de processos físicos, químicos e biológicos. Com instrumentos cada vez mais sofisticados, especialmente microscópios, para estudar a matéria em detalhe, concluiu-se que nanotecnologia poderia ir muito além das nanomáquinas.

Muitos são os exemplos de aplicações da nanotecnologia, mesmo em áreas que aparentemente não envolvem “nano coisas”. Talvez ninguém suspeite que a nanotecnologia pode ajudar o Brasil a dar um passo importante na indústria do petróleo. Acontece que uma parte do petróleo extraído no Brasil é de petróleo pesado, cujo refino requer tecnologias de que não dispomos. Por isso, exportamos esse petróleo – a preços mais baixos obviamente – e continuamos a ter que importar petróleo mais leve, para produzir gasolina. Dentre as possíveis soluções para refinar o petróleo pesado estão nanotecnologias para uma catálise mais eficiente. Se formos capazes de desenvolver essa tecnologia, daremos um grande salto.

O entusiasmo pela nanotecnologia nem sempre é consensual. Uma pergunta pertinente, freqüente nos meios acadêmicos, é se justifica criar uma nova área que acabe por englobar pesquisas e tecnologias de áreas tão distintas e tão vastas. Afinal, na sua definição mais abrangente, de estudo e controle de materiais no nível atômico ou molecular, nanociência e nanotecnologia envolveriam praticamente toda a física, toda a química, biologia molecular, farmacologia, etc.

Apesar de entusiasta da área, confesso que a resposta para esta pergunta não é tão fácil. É provável, por exemplo, que sejamos forçados a fazer recortes e estreitar as definições. Entretanto, são muitas as vantagens da definição abrangente. A primeira delas é que com nanotecnologia podemos abordar problemas de maneira integrada, sem compartimentalizar em aspectos só físicos, ou só químicos, ou biológicos.

Não nos esqueçamos que a divisão em áreas é uma maneira de melhor treinar os profissionais, identificando assuntos nos quais um determinado tipo de profissional precisa se aprofundar.

A realidade não tem compromisso com esta divisão artificial. Nossos desafios são sempre multidisciplinares!

domingo, 16 de agosto de 2009

Informação é conhecimento?

Já é lugar-comum dizer que vivemos numa Sociedade da Informação. Há inclusive projetos governamentais em vários países para o desenvolvimento de estratégias de disseminação da informação, quase sempre centrados em inclusão digital.

O termo “sociedade da informação” adquiriu significado próprio. De fato, a disponibilidade de informação aumentou de maneira espetacular em pouco mais de uma década. Principalmente informação em meio eletrônico, tendo como marco a criação da Internet. Havia, inclusive, uma expectativa de diminuição do fosso entre nações desenvolvidas e subdesenvolvidas (ou em desenvolvimento), uma vez que a informação agora pode ser amplamente disseminada com baixo custo. Ledo engano! De quase nada adianta ter acesso à informação se não formos capazes de transformá-la em conhecimento.

A distinção entre informação e conhecimento é crucial para um país traçar suas políticas. Informação é o que está nos livros, jornais, artigos científicos, relatórios, nos diversos textos da Internet, em vídeos, filmes, etc. Enfim, conteúdo que pode estar em diversas mídias. Uma vez disponível, a informação tem existência própria, não precisa da intervenção humana.

Já o conhecimento, não. Ele só aparece a partir da atuação humana, requerendo processamento de informação, que pode ter graus diferentes de sofisticação. Se a informação está disponível em uma língua estrangeira, precisamos traduzi-la ou conhecer tal língua para processá-la. Se aparece na forma de modelos matemáticos, necessitamos conhecer tais modelos para decifrar o conteúdo. Posto de outra forma, adquirir conhecimento pressupõe acesso à informação, mas a recíproca não é verdadeira. Ter a informação não necessariamente leva ao conhecimento.

E progresso cientifico e tecnológico é baseado em conhecimento. Ainda que para se atingir tal conhecimento seja necessária muita informação. A conseqüência mais nefasta, para os países pobres, dos requisitos para atingir conhecimento é que a criação de conteúdo a uma velocidade fantástica, como a que assistimos hoje, leva a um aumento do fosso para os países ricos. Porque a disponibilidade de mais e mais informações traz a necessidade de ferramentas cada vez mais sofisticadas de processamento da informação.

Óbvio que o domínio dessas ferramentas em si representa conhecimento, e portanto países detentores do conhecimento tendem a levar ainda mais vantagens. Ou seja, a globalização da informação nada tem de democratizante, porque alimenta o círculo vicioso em que os países dominantes se beneficiam mais.

Pode-se argumentar que grande parte do conteúdo disponível no mundo foi gerado (e portanto custeado) pelas nações desenvolvidas. Em outras palavras, essas nações oferecem muito mais do que recebem dos países menos desenvolvidos. Isso é fácil comprovar a partir de um levantamento do conteúdo digital na Internet, por exemplo. Entretanto, mesmo contribuindo muito menos, países subdesenvolvidos são normalmente incapazes de gerar conhecimento (e riqueza) a partir da informação disponível.

Voltando à chamada Sociedade da Informação, acho que seria mais adequado empregar o termo Sociedade do Conhecimento. Neste aspecto, acho impreciso dizer que esta é a era do conhecimento. Os humanos sempre viveram numa Sociedade do Conhecimento. Não é característica somente dos dias atuais. Em todas as épocas, deter conhecimento foi essencial para o desenvolvimento e mesmo dominação. Quer seja para a guerra ou para grandes navegações, o conhecimento sempre foi crucial para o sucesso de uma Nação.
Sou fascinado por conhecimento. É lógico que admiro aqueles que sabem coisas complicadas, aprendidas em longos anos de escola. Mas o que mais me encanta é o conhecimento, muitas vezes tido como simples, mas sempre útil. De um borracheiro recauchutando um pneu, o confeiteiro com as mãos mágicas fazendo coisas deliciosas – que só ele sabe fazer, a bordadeira criando um padrão de rara beleza. Por fim, o conhecimento supremo dos sábios e sábias: o da alma humana.

Começo, meio e fim

No começo, humanos provavelmente se comunicavam com sinais e gestos, e aos poucos sofisticaram-se as maneiras de comunicação, culminando nas chamadas línguas naturais, como o português, o inglês, etc. São ditas naturais em contraposição às linguagens de programação de computador. A aquisição de linguagem, ou seja, o aprendizado de uma língua natural permite ao homem aprender constantemente, assim como expressar seus conhecimentos.

Usando língua natural podemos descrever o mundo, as sensações, os sentimentos, de maneira direta ou através de metáforas, causando impacto nos interlocutores ou leitores também de maneira variada. Formam as línguas naturais, portanto, o que chamo da linguagem do conhecimento primordial. Desta depende toda aquisição de conhecimento.

A despeito da riqueza dessa linguagem, ela não é suficiente para expressar todo conhecimento que os humanos acumularam ao longo dos séculos. Se por um lado é possível explicar, e entender, que um objeto cai devido à lei da gravidade, a linguagem representada pelas línguas naturais não é suficiente para explicar muitas outras coisas. Como prever a trajetória de uma nave espacial rumo à Lua ou a Marte, por exemplo. O fenômeno é essencialmente o mesmo, mas expressar conhecimento mais detalhado requer utilização de modelos matemáticos, cujo grau de sofisticação depende da situação analisada.

A linguagem dos formalismos matemáticos é a segunda linguagem do conhecimento.

O desenvolvimento desse segundo tipo de linguagem teve conseqüências enormes para a civilização. Foi responsável pelo sucesso de diferentes povos, em diferentes etapas da história. Pois o conhecimento foi e continua sendo o elemento essencial para o progresso de uma Nação. Isso foi ainda mais pronunciado no Século XX, em que o progresso tecnológico suplantou em um só século todo o progresso humano acumulado em milhares de anos de civilização.

De fato, o século XX acabou por ser singular em desenvolvimento tecnológico, que eu atribuo a uma conquista fundamental: o decifrar da estrutura da matéria. Com os trabalhos de Einstein e dos pioneiros da mecânica quântica, hoje sabemos do que é feita a matéria e como ela funciona.

Mas e o título da coluna? Tomando a Grécia antiga como o começo, para fins de ciência e tecnologia estruturada, havia retórica e lógica. Eram estas as disciplinas fundamentais para expressar conhecimento. Hoje, tomado como o meio, as linguagens do conhecimento – representadas pelas línguas naturais e a dos formalismos matemáticos – desempenham esse papel.

E o fim, que está por vir, dependerá cada vez mais do aprender a aprender. Nossa sociedade do conhecimento tenderá a privilegiar cada vez mais aqueles que adquirem novas habilidades com eficiência e rapidez. O requisito fundamental para isso é dominar as linguagens do conhecimento.

Um leitor atento pode indagar qual linguagem do conhecimento é responsável por representar a expressão artística. Há muito que o homem expressa conhecimento pela pintura, escultura. Estas não foram incluídas na minha classificação de linguagens do conhecimento. Percebo que preciso estender minha definição, mas falta-me jeito para a coisa, tão distante que sempre estive das artes. Quem sabe o leitor pode me ajudar!