Ou o BUG do MILENIO: Ouvi muitos comentários bastante idiotas sobre este tema.
Tais como: “Ha ha ha, meu computador Mac vai se ajustar ao ano 2000 e o teu PC
não vai” – ou “Por que tanto barulho? O número 2000 não é problema para o
relógio do meu computador”.
Na década de 1960, com a solidificação de vários
sistemas computacionais e a ampliação de sua abrangência, foi necessária a
adoção de diversos padrões para garantir a compatibilidade entre os diversos
tipos de hardware e os softwares escritos para
eles. Numa época em que cada byte de memória economizado representava economia
de dinheiro muitos destes padrões adotavam formas resumidas para armazenar
dados. Ainda hoje centenas destes padrões ainda estão em vigor, embora muitos
tenham sido substituídos para se atualizar com a flexibilidade dos novos
hardwares disponíveis.
Nos sistemas mais antigos, como
aqueles na linguagem COBOL e semelhantes, as
datas eram armazenadas com apenas 2 dígitos para o ano, ficando os restantes
implicitamente entendidos como sendo "19". Desta forma cada data
armazenada deixava de ocupar oito bytes (dois
para o dia, dois para o mês e quatro para o ano), e passava a ocupar somente
seis bytes (somente dois no ano). A opção por representar as datas desta forma
vinha da necessidade real de economia de memória e espaço de armazenamento. Hoje
isso parece insignificante mas na época isso foi o suficiente para justificar a
adoção do padrão, tamanho o custo das memórias e dispositivos de armazenamento.
Para ter uma ideia imagine um banco de dados com vários campos, entre
eles data de nascimento, data de casamento e data
de cadastro. Para cada registro a economia nas três datas totaliza seis
bytes. Se o banco de dados tiver dez mil registros são 60kB bytes a menos, o
que era significativo numa época em que os discos tinham o tamanho de 180kB.
Como todas as datas eram
representadas por somente 2 dígitos, os programas assumiam o "19" na
frente para formar o ano completo. Assim, quando o calendário mudasse de 1999
para 2000 o computador iria entender que estava no ano de "19" +
"00", ou seja, 1900. Os softwares mais modernos, que já utilizavam
padrões mais atuais, não teriam problemas em lidar com isso e passariam
corretamente para o ano 2000, mas constatou-se que uma infinidade de empresas e
instituições de grande porte ainda mantinham em funcionamento programas
antigos, em função da confiança adquirida por anos de uso e na sua
estabilidade. Para além disso, temiam-se os efeitos que poderiam ser provocados
no hardware pelo sistema BIOS, caso este reconhecesse
apenas datas de dois dígitos.
Caso as datas realmente
"voltassem" para 1900, clientes de bancos veriam suas aplicações
dando juros negativos, credores passariam a ser devedores, e boletos de
cobrança para o próximo mês seriam emitidos com cem anos de atraso.
O temor do Bug do milênio motivou uma
renovação em massa dos recursos de informática (tanto de software como de
hardware) e houve uma louca corrida para corrigir, atualizar e testar os
sistemas antes que ocorresse a mudança do milênio. Velhos programadores de
COBOL foram tirados da aposentadoria, para voltar a trabalhar em sistemas
muitas vezes desenvolvidos por eles mesmos, vinte anos antes.
Na verdade, alguns dos sistemas
desenvolvidos já possuíam alguma previsão para a virada do milênio. Um exemplo
de técnica de compensação ao Bug pode ser encontrado no velho sistema em COBOL
da empresa brasileira Espiral Informática: O sistema adicionava 1900 ao ano
sempre que este fosse maior do que 25. E adicionava 2000 a todos os anos
anteriores a 25. Assim, "24" seria interpretado como 2024, e
"26", como "1926". Já "85" era interpretado como
1985. Este sistema tinha vida útil até 2025, data escolhida de forma arbitrária
pelo desenvolvedores, possivelmente na crença de que em 2025 o sistema já teria
sido substituído por simples obsolescência.
Nos computadores da Apple Inc., era utilizado um sistema de
contagem de segundos desde 1 de Janeiro de 1904, sendo que o sistema operativo
se encarregava de converter os segundos em data.
Surpreendentemente, houve poucas
falhas decorrentes do Bug do milênio, que se revelou quase inofensivo apesar de
ter gerado uma onda de pânico coletivo, especialmente nos países nos quais os
computadores estavam mais popularizados. Todo esse pânico foi injustificado,
porque a maioria das empresas e dos consumidores domésticos haviam adquirido
computadores novos ou fizeram a atualização para sistemas operativos preparados
para o problema. Além disso grande desenvolvimento informático ocorreu na
segunda metade da década de 1990 (não nas décadas de 1960 ou 1970, quando
apenas grandes empresas possuíam os supercomputadores que tinham esse erro),
quando os sistemas já estavam preparados para o problema. Os velhos
computadores com o erro foram sendo substituídos ao longo dadécada de 1990, com o advento da Internet e do Windows 95 que contribuíram para um
número muito reduzido de ocorrências de problemas no mundo inteiro.
O assunto gerou muita polêmica devido aos grandes lucros gerados para as
empresas de informática, foi alvo de matérias copiosas na imprensa e deu até
origem a vários filmes. Hoje é considerado como um dos casos registrados pela
História de pânico coletivo vazio de fundamentos, uma versão
Posted in:
0 comentários:
Postar um comentário