terça-feira, 31 de dezembro de 2013

O GPS é a Teoria da Relatividade no nosso dia a dia

O fascínio pela descoberta de novos fenômenos ou por compreender como as coisas funcionam é suficiente para motivar cientistas por uma vida inteira. No início do Século XX, Albert Einstein se debruçou sobre um problema aparentemente sem grande conexão com o mundo que o cercava. Ele não se conformava que a física necessária para explicar certos fenômenos tivesse que ser alterada quando se mudava o referencial das medidas. Para ele, as leis da física deveriam ser invariantes, independentemente de as medidas serem feitas na Terra – um referencial que podemos considerar fixo – ou num barco em movimento.

Para resolver o problema, em 1905 Einstein apresentou uma teoria muito abstrata, que recebeu o nome de Teoria da Relatividade Restrita. Uma conseqüência dessa teoria é que o conceito de tempo já não era absoluto. Ou seja, o relógio de um observador fixo na Terra não marcaria o mesmo tempo que um relógio usado por um observador em movimento. E mais, as réguas para medir distâncias também seriam diferentes para observadores com velocidades diferentes. O nome de Relatividade Restrita foi dado porque a teoria só se aplicava a referenciais que tivessem velocidades constantes, sem aceleração.

Em 1915, Einstein estendeu a teoria para referenciais acelerados, também chamados não inerciais. Criou a Teoria da Relatividade Geral, que também trouxe uma conseqüência inusitada: que as ondas eletromagnéticas – como os feixes de luz visível, as ondas de rádio ou a radiação de microondas – teriam sua trajetória desviada quando passassem próximo de um corpo com massa. Esta previsão da Teoria da Relatividade Geral foi comprovada anos mais tarde em Sobral, no Ceará.

Para operar aparelhos cada vez mais sofisticados, muitas vezes precisamos da ajuda de crianças e adolescentes. Só eles conseguem decifrar o mundo de tantos botões e ícones numa tela pequena de um telefone celular, um tocador de música ou um aparelho de GPS. Creio que poucos pudessem imaginar que um GPS é uma aplicação direta da Teoria da Relatividade.

O sistema de posicionamento global, conhecido por nós como GPS que é a sigla para o nome em inglês “global positioning system”, funciona como se tivéssemos amigos no espaço com um mapa da Terra, em permanente contacto conosco. Emitimos um sinal, que viaja com a velocidade da luz, a um desses amigos e ele pode saber nossa posição na Terra a partir do tempo que a mensagem levou até ele. Como para um mesmo tempo de viagem do sinal, podemos ter mais de uma posição na Terra, necessitamos de mais de um amigo – em lugar diferente no espaço - para determinar nossa posição.

Esses amigos são os satélites, que requerem relógios extremamente precisos. Acontece que os tempos de viagem dos sinais emitidos são muito curtos, porque a velocidade da luz é muito grande (mais de um bilhão de km/h). Por isso são empregados relógios atômicos. O problema é que também temos que medir o tempo que leva para recebermos a resposta do sinal do satélite. Para ter precisão na determinação na posição, também seria necessário ter um relógio atômico no aparelho de GPS, o que é impraticável. A precisão atual é conseguida compensando-se as limitações do relógio do aparelho com o uso do sinal de muitos satélites. São hoje empregados 24 satélites, que também permitem que o sistema GPS funcione em qualquer lugar da Terra.

Mas então, onde entra a Teoria da Relatividade? Ora, para determinar a posição com precisão de alguns metros em alguns segundos, os relógios nos satélites têm que ter precisão de 20 a 30 nanossegundos (ns) (1 ns é a bilionésima parte de um segundo). Segundo a Teoria da Relatividade Restrita, um relógio no satélite que tem uma velocidade de 14.000 km/h em relação à Terra atrasará cerca de 7 microssegundos (μs) (1 μs é a milionésima parte de um segundo) por dia. Além disso, como os satélites estão numa órbita a 20.000 km de altitude, o campo gravitacional é mais fraco do que na Terra. Nessa altitude, o desvio das ondas eletromagnéticas é menor, e a Teoria da Relatividade Geral prevê que um relógio no satélite adiantará de 45 μs por dia.

Estamos acostumados a não nos preocupar com as correções relativísticas, que são quase sempre muito pequenas. De fato, só perceberíamos diferenças no tamanho de uma régua em movimento, se esta estivesse a uma velocidade próxima à velocidade da luz, o que é inimaginável. Entretanto, para o sistema de GPS, as correlações relativísticas são muito importantes, principalmente aquela da Relatividade Geral, pois um erro de 45 μs corresponde a 45.000 ns. Só para exemplificar, sem as correções relativísticas um GPS acumularia erro de posicionamento de alguns quilômetros em um único dia.  



Concluímos que não há mínima chance de desenvolver um sistema de GPS sem conhecimento da teoria da relatividade. Afinal, ninguém quer estacionar seu carro no trabalho pela manhã e ao final do dia receber a informação (errônea!) do GPS que o carro já está em casa, a quilômetros de distância. Seria confuso, não? 

quarta-feira, 25 de dezembro de 2013

Uma Proposta para a Educação no Brasil

Não há dúvidas de que um dos problemas cruciais a ser enfrentado pelo Brasil nas próximas gerações é o da Educação, e isso parece ser consenso há algum tempo. A dificuldade é estabelecer políticas viáveis para atacar o problema de maneira eficaz. Há inúmeras carências, tanto de infra-estrutura como a de permitir que alunos de estratos menos favorecidos tenham condições de aproveitar os ensinamentos que recebem. Mas talvez o problema maior seja o relacionado aos professores, que recebem em média salários baixos, com conseqüências funestas. Por um lado, não há incentivo para que jovens talentosos se tornem professores, diminuindo a concorrência pela carreira e dificultando o recrutamento de equipes de alto nível. Por outro, aqueles já engajados na profissão de professor precisam se submeter a jornadas de trabalho extenuantes, sem tempo para se aprimorar ou dedicar-se integralmente a uma escola. 

Ao longo dos anos, várias iniciativas foram e vêm sendo tomadas para amenizar os problemas na Educação, além da necessária universalização do ensino para crianças de todos os níveis sociais, que só recentemente foi atingida. Considerando-se a questão salarial dos professores como central, a mais importante das iniciativas foi o estabelecimento de um piso para o salário dos professores, pelo governo federal. Essa medida deve trazer grandes benefícios nos próximos anos, mas será infelizmente limitada por dois fatores: i) possibilidade de desobediência por parte de estados e municípios, que alegam não ter recursos para pagar o piso salarial a todos os professores; ii) em alguns estados da federação o piso já está abaixo do salário praticado, e sua aplicação não tem efeito devido ao alto custo de vida.

A única solução que antevejo é a de se criar um fundo nacional para poder bancar os salários (ou parte deles) dos professores do ensino pré-escolar, básico e médio de todas as escolas públicas do país (municipais, estaduais e federais). O piso deveria ser um salário competitivo para um profissional com formação universitária, equivalente ao salário médio inicial de engenheiros, dentistas, arquitetos, informatas, etc. Hoje um salário desses seria de cerca de R$ 4.000,00 mensais líquidos, e considerando-se todos os encargos trabalhistas corresponderia a aproximadamente R$ 90.000,00 por ano por professor.

Considerando-se que temos cerca de 40 a 50 milhões de crianças e jovens em escolas, e uma média de um professor por 40 a 50 crianças, tal fundo teria que cobrir o salário de aproximadamente um milhão de professores. O custo estimado portanto seria de R$ 90 bilhões anuais (para chegar a esse valor não verifiquei dados estatísticos, mas acho que vale como uma estimativa). Certamente não é pouco dinheiro, e por isso é necessário buscar fontes alternativas para financiar o Programa. Além disso, seria importante garantir o programa por uma geração, digamos de 30 anos.

Parece improvável que prefeitos e governadores se disponham a bancar tal Programa, pois seria eleitoralmente desastroso, uma vez que os resultados só aparecerão no médio e longo prazo, obviamente a daqui várias eleições. Portanto, para resolver o problema da Educação, há que se investir uma grande quantidade de dinheiro extra orçamentário. Não sendo possível obter do orçamento dos governos, minha sugestão é que o Brasil buscasse um empréstimo em órgãos internacionais. Seria um endividamento mais do que justificável.

A implementação poderia ser centralizada, com os recursos sendo repassados diretamente aos salários dos professores, o que garante transparência e minimiza as possibilidades de corrupção.

Obviamente que o Programa visa apenas a resolver o problema de salário. Outros problemas sérios da Educação, como treinamento de pessoal, melhoria na infra-estrutura das escolas, etc, precisam de ações adicionais. Mas o meu argumento a favor do Programa para o salário dos professores é que ele é de máxima prioridade, pois sem resolver o problema do salário não há solução para os outros problemas. Não há como cobrar dedicação dos profissionais da educação sem salários razoáveis. Não é possível melhorar a qualidade da formação de docentes, sem estímulo para a carreira. E não adianta melhorar a infra-estrutura das escolas, se os professores não estiverem bem preparados e motivados. Há outro aspecto relevante, que faz do problema salarial o mais grave para o futuro da educação no Brasil: as licenciaturas são pouco atraentes hoje, e portanto corremos o risco de o Brasil não ter professores qualificados em número suficiente no futuro próximo. Essa baixa procura pelos cursos de licenciatura só pode ser creditada ao fato de a carreira de professor de ensino médio e fundamental não ser atraente pelos baixos salários.

Abaixo menciono possíveis críticas e indagações sobre o Programa, com minhas respostas:

1)      O Programa é caro demais.
Resp. A resposta é canônica. Mais caro para o país no longo prazo será continuar com uma educação sem qualidade.

2)      Um empréstimo de alto valor pode comprometer as finanças do país por muitas gerações.
Resp. É verdade que se o país não se desenvolver (inclusive com tecnologia de ponta) ou não houver aportes adicionais (como o do petróleo da camada pré-sal), provavelmente não será possível pagar o empréstimo. Mas sem resolver os problemas da educação, possivelmente não haverá desenvolvimento auto-sustentável e o país terá problemas financeiros da mesma forma.

3)      Como garantir a continuidade do Programa para garantir que professores contratados daqui a alguns anos possam ter os mesmos rendimentos (e direitos na aposentadoria) do que os professores imediatamente beneficiados pelo Programa?

Resp. Esta é uma das perguntas mais difíceis, porque provavelmente ter-se-á que criar mecanismos jurídicos para permitir um Programa com duração limitada. Minha expectativa é a de que os primeiros resultados – com mais desenvolvimento e renda – apareçam em 5 ou 10 anos, e com isso seja possível prorrogar o Programa de maneira a que os novos contratados tenham as mesmas garantias.

4)      Tentar resolver apenas um item dos complexos problemas da Educação não é uma simplificação que se mostrará inócua?
Resp. É claro que outras ações serão necessárias. Mas o meu ponto é que sem resolver a questão salarial, nenhuma outra iniciativa terá impacto global para a Educação. Outras iniciativas – como a de novas políticas públicas, apoio das Universidades às escolas de ensino médio e fundamental, etc., trazem sempre benefícios apenas pontuais.

5)      Tentar atacar apenas o problema da Educação, sem considerar outros vários problemas nacionais (má distribuição de renda, desigualdades regionais, segurança, etc), pode ser ineficaz!
Resp. Também é óbvio que os outros problemas nacionais devem ser atacados. Mas em certa medida, todos dependem da Educação. E para a educação, há anos entramos num círculo vicioso causado pelos baixos salários dos professores. Sem resolver este problema não avançaremos.

Resumo minha defesa às perguntas acima com duas sentenças:
a)      Como não conseguimos resolver todos os problemas de uma vez, nunca resolvemos nenhum deles, e a tentativa de resolvê-los paulatinamente (sem um choque!) não tem dado resultado e nem dará.

b)      Educação de qualidade só se faz com um corpo de professores de qualidade, o que só se consegue com uma carreira atraente. 

domingo, 8 de setembro de 2013

Por que em breve poderemos falar com o computador!

Por mais de uma década tenho dado palestras em que tento explicar o porquê de autores de ficção científica terem errado tão grosseiramente nas previsões de comunicação do homem com a máquina. De fato, em filmes e livros de ficção dos anos 1960-1970 era comum haver robôs que se comunicavam sem dificuldade com os humanos. E como sabemos, isso está muito longe de ocorrer. São várias as razões para esses erros de previsão, mas talvez a mais importante tenha sido não reconhecer a complexidade da linguagem humana, e a necessidade do chamado “conhecimento de mundo” para uma comunicação eficaz. Mesmo crianças em fase de aprendizado da língua já detêm um volume gigantesco de informações e estratégias, que hoje parecem impossíveis de processar por um computador.

Nas palestras menciono as duas abordagens de processamento automático de línguas naturais (PLN), a simbólica e a estatística (ou conexionista e agora também chamada de baseada em corpus ou em aprendizado de máquina). Para uma audiência de não especialistas, é fácil explicar os requisitos de um sistema de processamento no paradigma simbólico, o que inclui dicionários, analisadores sintáticos e semânticos. Minha ênfase – até porque é fácil de a audiência perceber – é sempre voltada para a dificuldade de resolver ambiguidades, principalmente nos casos em que conhecimento de mundo é necessário. Dou exemplo de sentenças que mesmo humanos não conseguem decifrar, a menos que tenham experiência de uma cultura local, e para tanto uso sentenças em inglês cuja compreensão requer conhecimento da cultura britânica. Se houver membros na audiência com tal experiência as sentenças são facilmente decifráveis, e não havendo preciso dar pistas para que a audiência adivinhe o significado. Em ambos os casos, a dificuldade de interpretação por um computador fica claramente demonstrada.

Chegou a hora de reconhecer que eu estava enganado; infelizmente não informei minhas audiências corretamente por todos esses anos ao me fixar nas dificuldades de processamento, dando a entender que dificilmente o homem se comunicaria com a máquina de forma natural. Meu primeiro erro foi não ter a percepção de que o outro paradigma de PLN, que hoje se apoia nos métodos de aprendizado de máquina, pode dar resultados muito superiores aos do paradigma simbólico, o que já acontece nos tradutores automáticos. Mas o erro crucial foi não compreender que o aprendizado de máquina mimetiza – ainda que de maneira rudimentar – o aprendizado humano. Portanto, quando a capacidade de processamento da máquina se equiparar à dos humanos, os sistemas computacionais devem apresentar habilidades semelhantes na produção e recepção de uma língua, talvez com menor eficiência (será?). Minha opinião sobre os limites do PLN mudou drasticamente em 2011 quando o computador Watson da IBM venceu campeões humanos na competição Jeopardy, um programa de perguntas e respostas de conhecimentos gerais da TV americana. Agora prevejo um progresso tão espetacular que permitirá comunicação com computadores num futuro não muito distante, desde que a capacidade de processamento de um computador continue aumentando com taxas semelhantes às atuais (no que é chamado de Lei de Moore).

PLN baseado em aprendizado de máquina
Neste paradigma de PLN, métodos computacionais de aprendizado de máquina são empregados para aquisição de conhecimento a partir de grandes corpora, ou seja, a partir de exemplos. A eficiência do paradigma ficou clara nos últimos anos, à medida que o armazenamento de grandes volumes de informação linguística passou a ser praticamente ilimitado com todo o material hoje disponível em meio eletrônico. Para tradução automática, por exemplo, foram necessários corpora volumosos de textos alinhados para as línguas em questão. Na competição Jeopardy mencionada acima, o supercomputador Watson foi projetado especificamente para a tarefa de perguntas e respostas, com capacidade de processar cerca de um milhão de livros por segundo, e com acesso a grande parte do material disponível em meio eletrônico em língua inglesa.
         
Pode-se agora antever novos desdobramentos que revolucionarão os sistemas de busca na Internet e aplicativos similares. Para dar um exemplo simples, imagine que todos os objetos de certo domínio sejam definidos numa enciclopédia. Para o sistema computacional será fácil responder a qualquer pergunta do tipo “O que é ....?” Exemplo semelhante, talvez um pouco mais difícil, será responder perguntas do tipo “Quem fez ....?” ou “Quem foi ...?”, a partir de bases de dados. 

Computador ou máquina personalizada
Para justificar algumas das previsões e meu otimismo com PLN baseado em aprendizado de máquina, discuto como as máquinas no futuro podem ser diferentes das de hoje. Quando compramos um computador, o hardware vem acompanhado de uma série de softwares, sendo o principal o sistema operacional. Além disso, muitos programas já vêm instalados, de maneira que cada máquina já tenha dezenas ou centenas de programas. Uma característica interessante é que as máquinas são quase iguais para todos. Há obviamente uma particularização da língua natural para comunicação com o usuário, há diferentes sistemas operacionais e algumas outras especificidades. Mas só. Prevejo que em décadas os usuários acharão bizarro que todos tenhamos computadores quase iguais, “sem personalidade”, e com um número pequeno de programas. Para esses usuários do futuro que receberão um computador com milhões ou bilhões de programas, será difícil imaginar o nosso tempo, assim como os jovens agora se divertem em saber que já usamos computador sem disco rígido. 

Em suma, o computador no futuro já terá muito mais conhecimento embutido, e provavelmente contará com estratégias que permitam aumentar esse conhecimento automaticamente com aprendizado de máquina. Hoje o acréscimo é muito tímido, a partir da instalação pelo usuário de programas, bibliotecas e funcionalidades. Tudo em pequena escala e de forma manual.

A possibilidade de aprendizado contínuo do computador suscita a necessidade de independência, para que a aquisição de informação (ou conhecimento?) se dê sem intervenção de um humano. Isso já seria possível atualmente com hardware específico e mobilidade da máquina, como um robô. Podemos imaginar a máquina funcionando com bateria recarregável, que buscará fonte de energia quando necessário. Imagina-se, também, um robô dotado de visão e uma série de sensores que permitam sentir e avaliar o ambiente. A decisão, ou “desejo”, de adquirir novos conhecimentos – da Internet, de algum repositório ou de outras máquinas – será dada pelo programa que gerencia as ações da máquina. Como obviamente o programa foi escrito por um humano, aparentemente a máquina não tem independência. Mas a dependência pode ficar invisível quando não mais for possível descobrir qual dos milhões de programas que vieram com o computador é responsável pelo gerenciamento geral. Ou mesmo se tal programa não foi – ele próprio – produzido por outra máquina, a partir de modificações de um programa originalmente escrito por humanos.

A educação de uma máquina       
Este é um ponto interessante devido à analogia com educação de crianças numa sociedade. Mesmo considerando que cada máquina já poderá vir personalizada a partir das escolhas do comprador (falarei sobre isso mais tarde), o que ela aprenderá vai depender das instruções do dono e do ambiente. Se o dono usar duas ou mais línguas, por exemplo, a máquina adquirirá conhecimento nessas línguas. Para um dono que trabalha no mercado financeiro, a máquina deverá se tornar especialista em estatística, ações, câmbio e acompanhar todo o noticiário de negócios.

Imagino que a máquina possa ser auxiliar, cuidando dos diversos assuntos que o dono definir. Pode fazer gerenciamento de contas bancárias, cuidar da agenda do dono, preparar material de suporte para o trabalho do dono, etc. Por exemplo, fazer pesquisa na literatura e preparar material didático para um dono professor. Obviamente que para realizar a maioria das tarefas, estou supondo que a Internet será acessível para as máquinas, o que ainda não é possível. Mas há propostas nesse sentido, como a Web Semântica.

Gestação de uma máquina
A aquisição de uma máquina será um processo muito mais complicado do que é comprar um computador hoje. Para personalizar a máquina (robô) há que se decidir como selecionar os milhões ou bilhões de programas e aplicativos, o que deverá levar muito mais tempo e provavelmente terá que ser feito com apoio de uma (outra) máquina. Não se pode esperar que um humano vá saber em detalhe o que selecionar. É esta dificuldade de identificar a origem das decisões que dá o aspecto de independência para as máquinas. Elas parecerão ter vontade própria, simplesmente porque não saberemos explicar como as decisões são tomadas. Neste contexto, reparar uma máquina avariada – ou que simplesmente esteja se comportando de maneira inesperada - será muito mais complicado, pois o cenário é completamente distinto do atual em que um humano especialista localiza o problema, conserta ou substitui um componente (programa ou elemento de hardware).

Aqui surge uma possibilidade interessante. Suponhamos um casal recém-casado, cada qual com seu agente (robô ou só agente de software). Esses agentes terão sido treinados de acordo com os gostos e necessidades dos donos. Ao iniciar a nova vida juntos, o casal percebe que seria mais eficiente conciliar agendas e aplicativos, e decide adquirir uma nova máquina (novo agente). Para selecionar a especificação inicial, como mencionado acima, e posteriormente treinar a nova máquina, será necessária a atuação conjunta das máquinas do casal. Ou seja, a nova máquina herdará características da máquina do marido – chamemos máquina-pai – e da esposa, a máquina-mãe. Seria como receber o código genético dos pais (máquinas neste caso); a propósito a metáfora que deu origem aos algoritmos genéticos provavelmente já estará sendo usada para a herança de características. Incompatibilidades poderão aparecer na junção dessas características, e imagino que devamos esperar que a máquina-filha seja diferente das que lhe deram origem, apesar da herança. Fenômenos como mutações poderão ocorrer, de maneira muito semelhante ao que acontece em biologia. E o que é mais relevante: quando quisermos descobrir a razão para certos comportamentos da máquina, como abordagens para resolver problemas ou como decisões são tomadas, pode não ser fácil determinar a origem. O comportamento pode ter sido adquirido das máquinas-pais ou aprendido no processo de aquisição de conhecimento da nova máquina.

Máquina pode ter sentimento?
Um argumento comum daqueles que não acreditam que o computador pode superar o humano é de que uma máquina jamais terá sentimento. Parece verdade. Mas o que é sentimento? Como se sabe que as pessoas têm sentimento? Ora, sabemos que elas têm sentimento por sua reação ao interagir conosco. Usando essa definição de “sentimento”, ou seja, o que é inferido por nossa percepção de uma reação da pessoa, então acredito que as máquinas podem ter sentimento. As reações das máquinas atuais são muito artificiais, e facilmente descobrimos que se devem a estímulos previamente programados por humanos. Mas e quando não for possível determinar a origem das decisões das máquinas? E se estas usarem uma lógica fuzzy para alguns tipos de decisão, dando a impressão de serem irascíveis? Quando as reações das máquinas puderem ser muito variadas, e não formos capazes de compreender sua origem, atribuiremos a elas sentimentos!

A máquina então passará no teste de Turing, sem que consigamos distinguir sua reação da de um humano. 

Convergência de Tecnologias

No século XX vivenciamos enorme desenvolvimento tecnológico, que acredito ter suplantado todo o progresso nos séculos anteriores somados. Isso se deveu principalmente às descobertas científicas nas primeiras décadas do século, que permitiram decifrar a estrutura da matéria. Saber que a matéria é constituída de átomos e moléculas, que interagem entre si segundo as regras da mecânica quântica, permitiu não só compreender as propriedades dos materiais que nos cercam, mas também projetar novos materiais.

Os exemplos mais marcantes são os semicondutores empregados na fabricação de computadores e toda sorte de equipamentos eletrônicos, e os avanços na medicina a partir da síntese de fármacos e da criação de novos métodos de diagnóstico. Ressalte-se, a propósito, que descobertas como as do laser e o uso de ressonância magnética na medicina seriam impossíveis se cientistas desconhecessem como funciona a matéria. No que concerne à importância econômica, levantamentos nos Estados Unidos apontam para mais de 50% do Produto Interno Bruto (PIB) daquele país serem gerados por tecnologias que usam a mecânica quântica. É o sucesso de uma abordagem científico-tecnológica que podemos classificar como reducionista, na medida em que buscamos compreender o funcionamento da matéria até seus constituintes mais elementares, e que hoje é o paradigma no qual se baseia a nanociência e nanotecnologia.

Com os grandes avanços obtidos da aplicação de uma teoria largamente comprovada, a teoria quântica, pode-se ter a impressão de não restar desafios científicos significativos. Esta impressão não poderia ser mais falsa, pois ainda não é possível aplicar a teoria à maioria esmagadora dos materiais, inclusive os mais importantes constituídos de matéria viva (como os seres humanos). A dificuldade principal está na falta de ordem na disposição dos átomos na matéria. Aplicar os princípios da mecânica quântica para um sólido cristalino, em que os átomos estão organizados em arranjos regulares, é relativamente simples. O mesmo não é verdadeiro para líquidos, como a água, ou sólidos não cristalinos, para os quais não conseguimos fazer previsões precisas sobre seu comportamento. Mais complicado é tentar entender as propriedades de moléculas constituídas de grande número de átomos como as proteínas, essenciais para a vida.

A análise da matéria viva, em particular, é um desafio ainda mais gigantesco por dois motivos. i) ela é constituída de estruturas auto-organizadas com número enorme de diferentes componentes, moléculas pequenas e grandes, e muita água. ii) suas propriedades finais não dependem apenas do comportamento individual de cada componente, mas também da interrelação entre esses componentes. Este último ponto é ilustrado pelo funcionamento da rede neural do cérebro, pois mesmo que pudéssemos determinar as propriedades de cada nó da rede (neurônio), ainda assim não teríamos o conhecimento sobre o funcionamento global.

Observa-se a partir da afirmação acima sobre o cérebro que uma abordagem reducionista é insuficiente para tratar sistemas complexos, como a rede neural. Isso obviamente se aplica a muitos outros sistemas, naturais ou produzidos pelo homem, cujo comportamento é governado pelas interações de seus componentes. Muitos cientistas, incluindo físicos, cientistas da computação e sociólogos, usaram um paradigma de certa forma oposto ao reducionista para investigar diferentes tipos de sistemas complexos, em que não se consideram os detalhes dos componentes mas apenas sua conexão.

Um resultado interessante foi a de que a organização de redes, como a da Internet e algumas redes sociais, obedece a princípios universais, como o do chamado efeito rico-fica-mais-rico. Segundo esse efeito, numa rede os componentes que já têm muitas conexões têm mais chances de conseguir conexões adicionais. Ao final, a rede acaba por ser constituída por um número pequeno de nós com uma quantidade enorme de conexões (“riqueza”), e um número enorme de nós com pouquíssimas conexões. Esta constatação é fácil entender para a Internet, pois quando se cria um novo nó, é muito mais provável que seja conectado a um nó já com muitas conexões, um provedor, do que a nós periféricos.

Embora pareçam antagônicos, o paradigma reducionista e o uso de redes ou outros métodos estatísticos começam a ser combinados em diferentes aplicações. É o que eu chamo de tendência à convergência de tecnologias, em que se lançam mão de abordagens e estratégias de naturezas muito distintas para atacar um problema difícil. Como exemplo, menciono o diagnóstico médico. Por um lado, o diagnóstico depende de exames clínicos com biossensores baseados em nanotecnologia. Por outro, requer o tratamento de grande quantidade de dados sobre pacientes, que podem ser imagens, relatórios, resultados de exames, etc. Implica em transformar informação, que é relativamente barata e disponível, em conhecimento.

À medida que formos capazes de combinar eficientemente essas abordagens, e pudermos processar todo o material eletrônico hoje disponível na transformação de informação em conhecimento, assistiremos a uma revolução no diagnóstico médico, como em muitas outras aplicações.