Impulsionados pelas necessidades do setor financeiro,
pesquisadores estão trabalhando em maneiras de gerenciar grandes sistemas de
computadores em até 100 bilionésimos de segundo.
Os cientistas
da área de computação de Stanford, na Califórnia, e o Google criaram uma
tecnologia que permite acompanhar o tempo até 100 bilionésimos de segundo.
Talvez seja isto que Wall Street está procurando.
Engenheiros de
sistemas da Nasdaq, a bolsa de Nova York, começaram recentemente uma série de
testes com um algoritmo e um software que, esperam, permitirá sincronizar
uma gigantesca rede de computadores com a precisão de nano segundos.
Para uma bolsa
como o Nasdaq, esta sofisticação é essencial para ordenar com precisão as
milhões de operações com ações que são colocadas em seus sistemas
computadorizados a cada segundo. Em última análise, é tudo uma questão de
dinheiro. Como as transações de ações são atualmente dominadas pelos
computadores que tomam decisões sobre compra e venda e as executam com uma
velocidade impressionante, manter esta ordem também significa proteger os
lucros. As operações de alta frequência colocam ordens em uma fração de
segundo, às vezes apostando em ações mais rápidas do que as concorrentes.
A pressão para
administrar estas operações de grande velocidade aumenta quando o mercado
acionário se torna mais volátil, como vem acontecendo nos últimos meses, em
parte para impedir que as corretoras mais rápidas se aproveitem deslealmente
das mais lentas. Nos Estados Unidos, as operações de alta frequência costumam
representar mais de 50% do volume de transações diárias em ações, segundo dados
do Tabb Group.
“O setor financeiro
tornou-se facilmente o mais obcecado com o tempo”, disse Balaji Prabhakar, um
engenheiro eletrônico de Stanford, que é um dos criadores do novo sistema de
sincronização.
Como as ordens
são colocadas de lugares no mundo todo, frequentemente chegam aos computadores
da bolsa fora de sequência. O novo sistema permite que cada computador coloque
a marcação horária em uma ordem quando ela ocorre. Consequentemente, as
ordens podem ser organizadas e executadas na sequência correta. Em um mercado
de rede, esta precisão é necessária não apenas para impedir operações ilícitas
com informações prévias, conhecida como “front-running”, mas também para
garantir a correta colocação das ordens.
Dois anos
atrás, foi implementada a Nasdaq Financial Framework. Trata-se de um sistema de
software que permitirá operações com qualquer tipo de coisas, desde ações e
títulos até peixe e corridas de táxi compartilhadas, mas ela só é possível se
todos os computadores da bolsa coincidirem no tempo com a precisão de nano
segundos.
A importância
dos avanços tecnológicos na medição do tempo foi ressaltada por novas
regulamentações europeias que exigem que transações com a marcação da data
estejam sincronizadas com a precisão de microssegundos.
A distância
tornou-se ainda mais significativa com a computação em nuvem, pela qual bancos
de dados inteiros estão espalhados entre diferentes computadores e centros de
dados. Ela criou tremendos desafios para os designers dos sistemas de comércio
eletrônico. O novo padrão de sincronização de software com o qual o sistema da
Nasdaq trabalhará, conhecido como Huygens, visa substituir um Protocolo
Temporal de Rede, ou N.T.P. na sigla em inglês, criado há 33 anos, bem como
estratégias mais dispendiosas que dependem de relógios atômicos e satélites de
posicionamento global.
O Huygens, do
nome do físico holandês Christian Huygens, que inventou o relógio a pêndulo em
1656, utiliza as chamadas técnicas de aprendizado de máquina para sincronizar
uma rede de computadores até 100 bilionésimos de segundo. Por outro lado, o
padrão do N.T.P. sincroniza os computadores com uma precisão não maior do que
um milissegundo, ou um milésimo de segundo. Para garantir que compradores e
vendedores sejam tratados corretamente, a Nasdaq busca há décadas como garantir
que as operações sejam processadas na ordem na qual são colocadas.
Como o
software e os dados não estão mais no mesmo lugar, calcular corretamente a
ordem dos acontecimentos que podem estar separados por metros ou quilômetros
tornou-se o fator predominante na velocidade do processamento dos dados.
Krishna Palem,
cientista teórico da computação da Rice University de Houston, Texas, disse:
“Grande parte da nossa esperança a respeito da precisão da computação depende
essencialmente do conhecimento desta ordem”.
Fonte: The New York Times