MUNDI

Pesquise Preços

quinta-feira, 25 de novembro de 2010

BLOG FALA UM POUCO DE MIM
UM POUCO DA MINHA PAIXÃO POR CINEMA
E DE COMPUTADORES.


Um Pouco de História Sobre Computadores...




A História dos computadores e da computação

Conheça os principais computadores usados desde a antiguidade até os dias de hoje.



Hoje em dia, os computadores estão presentes em nossa vida de uma forma nunca vista anteriormente. Sejam em casa, na escola, na faculdade, na empresa, ou em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, a computação não surgiu nos últimos anos ou décadas, mas sim há mais de 7 mil anos atrás.

Por este motivo, desenvolvemos este artigo, que conta a história e a evolução da computação e dos computadores em geral, desde a antiguidade até os dias de hoje. Desta maneira, você poderá ficar por dentro das principais formas de computação utilizadas pela humanidade. O texto está dividido em 4 partes e irá abordar temas diversos como ábaco: máquina de pascal, lógica de Boole, computadores mainframes, Steve Jobs, Bill Gates, entre vários outros.

Para começar, vamos falar sobre uma forma de calcular muito simples mas que também foi muito útil nas culturas antigas: o ábaco.

Ábaco, a primeira calculadora da história


Exemplo de ábaco russoMuitos povos da antiguidade utilizavam o ábaco para a realização de cálculos do dia-a-dia, principalmente nas áreas de comercio de mercadorias e desenvolvimento de construções civis. Ele pode ser considerado como a primeira máquina desenvolvida para cálculo, pois utilizava um sistema bastante simples, mas também muito eficiente na resolução de problemas matemáticos. É basicamente um conjunto de varetas de forma paralela, que contém pequenas bolas que realizam a contagem.

Seu primeiro registro é datado no ano de 5500 a.c., pelos povos que constituíam a Mesopotâmia. Contudo, o ábaco também foi usado posteriormente por muitas outras culturas: Babilônia, Egito, Grécia, Roma, Índia, China, Japão, etc. Cada um destes povos possui uma versão de específica desta máquina, entretanto, preservando a sua essência original. Seu nome roma antiga era "Calculus", termo de onde a palavra cálcuo foi derivada.

O fato deste instrumento ter sido difundido entre todas estas culturas se deve principalmente a dois fatores. O contato entre povos distintos é o primeiro deles, o que fez com que o ábaco fosse copiado de um lugar para vários outros no mundo. Por outro lado, a necessidade da representação matemática fez com os sistemas de contagens utilizados no cotidiano fossem implementados de forma mais prática.

Sobre as operações matemáticas, ele é bastante útil para a soma e subtração. Já a multiplicação e divisão, o ábaco comum não é muito recomendado, somente algumas versões mais complexas que padrão.

Régua de Cálculo

Durante vários séculos, o ábaco foi sendo desenvolvido e aperfeiçoado, sendo a principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais da época do renascimento necessitavam descobrir maneiras mais eficientes de efetuar cálculos. Logo, em 1638, depois de Cristo, um padre inglês chamado William Oughtred , criou uma tabela muito interessante para a realização de multiplicações muito grandes. A base de sua invenção foram as pesquisas sobre logaritmos, realizadas pelo escocês John Napier.

Régua de Cálculo

Até este momento, a multiplicação de números muito grandes era algo muito trabalhoso e demorado de ser realizado. Porém, Napier descobriu várias propriedades matemáticas interessantes e as deu o nome de logaritmos. Após, disso, multiplicar valores se tornou uma tarefa mais simples.

O mecanismo do William era consistido de um régua que já possuía uma boa quantidade de valores pré-calculados, organizados em forma que os resultados fossem acessados automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado.

Máquina de Pascal

Apesar da régua de cálculo de William Oughtred ser útil, os valores presentes nela ainda eram pre-definidos, o que não funcionaria para calcular números que não estivessem presentes na tábua. Pouco tempo depois, em 1642, o matemático francês Bleise Pascal desenvolveu o que pode ser chamado da primeira calculadora mecânica da história, a máquina de Pascal.

Máquina de Pascal



Seu funcionamento era baseado no uso de rodas interligadas, que giravam na realização dos cálculos. A ideia inicial de Pascal era desenvolver uma máquina que realizasse as quatro operações matemáticas básicas, o que não aconteceu na prática, pois ela era capaz apenas de somar e subtrair. Por esse motivo, ela não foi muito bem acolhida na época.

Alguns anos após a Máquina de Pascal, em 1672, o alemão Gottfried Leibnitz conseguiu o que pascal não tinha conseguido, criar uma calculadora que efetuava a soma e a divisão, além da raiz quadrada.



Baixaki:http://www.baixaki.com.br/tecnologia/1697-a-historia-dos-computadores-e-da-computacao.htm#ixzz1Dq4V3szE




O QUE É UM COMPUTADOR?

No dicionário encontramos: " Computador, s.m. - aquele que faz cômputos ou que calcula; máquina à base de circuitos electrónicos que efectua grandes operações e cálculos gerais, de maneira ultra rápida. " Os irónicos dizem: " Computador é o idiota mais veloz do mundo, pois fará qualquer coisa que nós lhe ordenarmos a uma velocidade extremamente alta. " Também podemos dizer: " Computador é um equipamento capaz de aceitar elementos relativos a um problema, submetê-lo a operações predeterminadas e chegar a um resultado. "

Complicado? Vamos estudar a história da criação do computador e poderemos ter a nossa própria definição sobre o computador...

img1PRIMEIRAS MÁQUINAS DE CALCULAR
A história do computador, ao contrário do que muitos podem imaginar, tem seu início há muito tempo atrás, desde quando o homem descobriu que somente com os dedos, ou com pedras e gravetos, já não eram suficientes para fazer cálculos...
Então foi criado, há aproximadamente 5.000 a.C., um aparelho muito simples (fig. 1) formado por uma placa de argila onde se escreviam algarismos que auxiliavam nos cálculos. Esse aparelho era chamado de ÁBACO - palavra de origem Fenícia.
Cerca de 200 a.C., o Ábaco era constituído por uma moldura rectangular deimg2 madeira com varetas paralelas e pedras deslizantes.

O próximo passo na história dos computadores (ano de 1642), ocorreu quando um francês de 18 anos de nome Blaise Pascal, inventou a primeira máquina de somar: PASCALINA (fig. 2), a qual executava operações aritméticas quando se giravam os discos interligados, sendo assim a precursora das calculadoras mecânicas.

img3Por volta de 1671 na Alemanha, Gottfried Leibnitz inventou uma máquina muito parecida com a Pascalina (fig 3), que efectuava cálculos de multiplicação e divisão, e qual se tornou a antecessora directa das calculadoras manuais.

Em 1802 - na França, Joseph Marie Jacquard passou a utilizarCartõesimg4 Perfurados para controlar suas máquinas de tear e automatizá-las.

No início do século XIX, mais especificamente em 1822, foi desenvolvido por um cientista inglês chamado Charles Babbage uma máquina diferencial que permitia cálculos como funçõesimg5trigonométricas e logaritmos, utilizando os cartões de Jacquard. Já em 1834, desenvolveu uma máquina analítica capaz de executar as quatro operações (somar, dividir, subtrair, multiplicar), armazenar dados em uma memória (de até 1.000 números de 50 dígitos) e imprimir resultados.

Porém, sua máquina só pode ser concluída anos após a sua morte, tornando-se a base para a estrutura dos computadores actuais, fazendo com que Charles Babbage fosse considerado como o " Pai do Computador ".

O INÍCIO DA ERA DA COMPUTAÇÃO
Já no ano de 1890, época do censo dos EUA, Hermann Hollerith percebeu que só conseguiria terminar de apurar os dados do censo quando já seria o tempo de se efectuar novo censo (1900). Então aperfeiçoou os cartões perfurados (aqueles utilizados por Jacquard) e inventou máquinas (fig. 6) para manipulá-los, conseguindo com isso obter os resultados em tempo recorde, isto é, 3 anos depois.
Em função dos resultados obtidos, Hollerith, em 1896, fundou uma companhia chamada TMC - Tabulation Machine Company,img7 vindo esta a se associar, em 1914 com duas outras pequenas empresas, formando a Computing Tabulation Recording Company vindo a se tornar, em 1924, a tão conhecida IBM - Internacional Business Machine.

Em 1930, os cientistas começaram a progredir nas invenções de máquinas complexas, sendo que o Analisador Diferencial de Vannevar Bush anuncia a moderna era do computador. Em 1936, Allan Turing publica um artigo sobre " Números Computáveis " eClaude Shannon demonstra numa tese a conexão entre lógica simbólica e circuitos eléctricos. Em 1937, George Stibitz constrói em sua mesa de cozinha um " Contador Binário ".

Com a chegada da Segunda Guerra Mundial houve a necessidade de se projectar máquinas capazes de executar cálculos balísticos com rapidez e precisão para serem utilizadas na indústria bélica.

Com isso surgiu, em 1944, o primeiro computador electromecânico (construído naUniversidade de Harvard, pela equipe do professor H. Aiken e com a ajuda financeira da IBM, que investiu US$ 500.000,00 no projecto), possuía o nome de MARK I, era controlado por programa e usava o sistema decimal. Tinha cerca de 15 metros de comprimento e 2,5img8metros de altura, era envolvido por uma caixa de vidro e de aço inoxidável brilhante e possuía as seguintes características:

  • 760.000 peças,800 km de fios,
  • 420 interruptores para controle
  • realizava uma soma em 0,3 s
  • realizava uma multiplicação em 0,4 s
  • e uma divisão em cerca de 10 s

Os computadores Z3 e logo a seguir o Z4, eram utilizados na solução de problemas de engenharia de aeronaves e projectos de mísseis, sendo que Zuze também construiu vários outros computadores para fins especiais, mas não teve muito apoio do governo Alemão, pois Hitler, na época mandou embargar todas as pesquisas científicas, excepto as de curto prazo, sendo que o projecto de Zuze levaria cerca de 2 anos para ser concluído. Umas das principais aplicações da máquinas de Zuze era quebrar os códigos secretos que os ingleses usavam para se comunicar com os comandantes no campo.




COMPUTADORES DE QUINTA GERAÇÃO

chip f-100Os computadores de Quinta Geração têm como característica o uso de ICVLSI - Integrated Circuit Very Large Scale Integration, ou seja, " Circuitos Integrados em uma Escala Muito Maior de Integração ".

Os " chips " vêm diminuídos tanto de tamanho, fazendo com que seja possível a criação de computadores cada vez mais compactos, como é o caso da micro miniaturização do microprocessador F-100, que mede somente 0,6 cm quadrados e é pequeno o suficiente para passar pelo buraco de uma agulha!

CLASSIFICAÇÃO DOS COMPUTADORES

Inicialmente, os computadores eram agrupados em dois tipos:

  • Pessoal: caracterizavam-se pela limitação de recursos de periféricos, pela não conexão com outros equipamentos e pela baixa velocidade de transmissão de dados.
  • Profissional: permitiam a expansão de periféricos à sua configuração básica, maior velocidade de transmissão e a conexão a outros equipamentos.

Podiam também serem classificados quanto às características de utilização:

  • Científicos: que possuem uma pequena entrada de dados; um processamento complexo, com grandes rotinas de cálculos e uma pequena saída de resultados.
  • Comerciais: que possuem uma grande entrada de dados; um processamento relativamente simples e uma grande saída de resultados.

Ou, quanto às características de operação:

  • Analógicos: computadores que executam trabalhos usando elementos representados por grandezas físicas, como por exemplo, a intensidade de uma corrente eléctrica ou o ângulo de giro de uma engrenagem. São computadores criados para uma finalidade específica, isto é, só se aplicam a um determinado trabalho. Os resultados obtidos com o uso de computadores analógicos são aproximados e servem ao próprio sistema onde é utilizado, como por exemplo: controle de temperatura de uma caldeira utilizando sensores, medidor de água ou de energia eléctrica.
  • Digitais: computadores que realizam suas operações utilizando elementos representados por grandezas matemáticas (números), ou seja, operam dígito a dígito. São computadores destinados a aplicações múltiplas, podendo ser utilizados em diversas tarefas. Por utilizar valores numéricos, os resultados obtidos com esse tipo de computador são exactos, como por exemplo: os cálculos de engenharia.

(O computador analógico " mede " e o computador digital " conta ")




TIPOS DE COMPUTADORES PADRÃO PC

Existem vários tipos de computadores:

  • "Mainframes ", que são computadores de grande ou médio porte, utilizados em grandes empresas;IBM 510

  • Minicomputadores;

  • Microcomputadores, também conhecidos como " desktop ", os quais existem de diversos modelos e tipos, como PC, Macintosh e Power PC;

  • Portáteis, como os laptops, notebooks, mini-notebooks, handhelds, notepads e palm tops.

O IBM PC, ou Personal Computer (Computador Pessoal), surgiu em 1981 e se tornou um padrão de microcomputador, o qual passou a ter uma evolução muito rápida, e difícil de se acompanhar...

pois ao adquirimos um modelo que consideramos de último tipo, verificamos que já despontou no mercado um outro mais novo, mais moderno e poderoso!

Vejamos se conseguimos " acompanhar " um pouco desta acelerada evolução:Primeiro PC

PC - Personal Computer:

  • permitia a inclusão de 5 placas de expansão;

  • 256 Kb de memória RAM

  • 40 Kb memória ROM

  • uma ou duas unidades de disquete de 5 1/4 " com capacidade de gravação de 360 Kb;

  • monitor CGA monocromático (fósforo verde, âmbar ou branco).

PC XT - PERSONAL COMPUTER EXTENDED TECNOLOGY:

permitia a inclusão de 8 placas de expansão;
512 Kb de memória RAM
40 Kb memória ROM
um ou dois leitor de disquete de 5 1/4 " com capacidade de gravação de 360 Kb;
uma ou duas unidades de disco rígido de 10 a 40 Mb;
monitor CGA monocromático (fósforo verde, âmbar ou branco) ou colorido;
placas de expansão padrão ISA de 8 bits.

PC AT - PERSONAL COMPUTER ADVANCED TECNOLOGY:

permitia a inclusão de 8 placas de expansão;
1 Mb de memória RAM
64 Kb memória ROM
uma ou duas unidades de disquete de 5 1/4 " com
capacidade de gravação de 360 Kb ou 1.2 Mb;
um ou dois discos rígido de 20 a 160 Mb;
monitor CGA monocromático ou colorido ou EGA;
placas de expansão padrão ISA de 8 e 16 bits.

AT 286

de 7 a 16 MHz;
1 Mb de memória RAM;
um ou mais drives de 5 1/4 " com capacidade de gravação 360 Kb ou 1.2 Mb;
monitor CGA monocromático ou colorido ou monitor EGA ou monitor VGA;
uma ou duas unidades de disco rígido de 20 a 160 Mb;
mouse;
placas de expansão padrão ISA de 8 e 16 bits.

386 SX

geralmente de 16 a 20 MHz;
2 Mb de memória RAM;
um ou mais drives de 5 1/4 " com capacidade de gravação 360 Kb ou 1.2 Mb e/ou drive de 3 1/2 " com capacidade de gravação 720 Kb ou 1.44 Mb;
monitor CGA ou EGA ou VGA (monocromático ou colorido);
uma ou duas unidades de disco rígido de 40 a 200 Mb;
placas de expansão padrão ISA de 16 bits.

386 DX

geralmente de 33 a 40 MHz;
2 Mb de memória RAM;
um ou mais drives de 5 1/4 " com capacidade de gravação 360 Kb ou 1.2 Mb e/ou drive de 3 1/2 " com capacidade de gravação 720 Kb ou 1.44 Mb;
monitor CGA ou EGA ou VGA (monocromático ou colorido);
uma ou duas unidades de disco rígido de 40 a 200 Mb;
placa fax-modem 1.200 ou 2.400 Kbps;
com ou sem co-processador matemático;
placas de expansão padrão ISA de 16 bits.

486 SLC, DLC OU SX

geralmente de 25 a 40 MHz;
2 a 4 Mb de memória RAM;
um ou mais drives de 5 1/4 " com capacidade de gravação 1.2 Mb e/ou drive de 3 1/2 " com capacidade de gravação 720 Kb ou 1.44 Mb;
monitor VGA ou Super VGA (monocromático ou colorido);
uma ou duas unidades de disco rígido de 120 a 400 Mb;
com ou sem co-processador matemático;
placa fax-modem 2.400 ou 4.800 Kbps;
placas de expansão padrão ISA de 16 bits.

486 DX

geralmente de 40 a 50 MHz;
4 a 16 Mb de memória RAM;
um ou mais drives de 5 1/4 " com capacidade de gravação 1.2 Mb e/ou drive de 3 1/2 " com capacidade de gravação 720 Kb ou 1.44 Mb;
drive de CD Rom 2x (velocidades);
monitor Super VGA (monocromático ou colorido);
uma ou duas unidades de disco rígido de 120 a 540 Mb;
placa fax-modem 4.800 ou 9.600 Kbps;
placas de expansão padrão ISA de 16 bits.

486 DX2

geralmente de 66 MHz;
8 a 64 Mb de memória RAM;
um ou mais drives de 5 1/4 " com capacidade de gravação 1.2 Mb e/ou drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de CD Rom 4x;
monitor Super VGA colorido;
uma ou duas unidades de disco rígido de 420 a 1.2 Gb;
placa fax-modem 14.400 ou 28.600 Kbps;
placas de expansão padrão ISA de 16 bits e Vesa Local Bus de 32 bits.

486 DX4

de 80 a 100 MHz;
16 a 64 Mb de memória RAM;
um ou mais drives de 5 1/4 " com capacidade de gravação 1.2 Mb e/ou drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de CD Rom 8x;
monitor Super VGA colorido;
uma ou duas unidades de disco rígido de 1.2 a 2 Gb;
placa fax-modem 14.400 ou 33.600 Kbps;
placas de expansão padrão ISA de 16 bits, Vesa Local Bus de 32 bits ou PCI.

586 (COM PROCESSADOR CYRIX OU AMD) OU PENTIUM (PROCESSADOR INTEL)

de 75 a 200 MHz;
16 a 64 Mb de memória RAM;
um drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de CD Rom 16x;
monitor Super VGA colorido;
uma ou duas unidades de disco rígido de 1.2 a 2 Gb;
placa fax-modem 14.400 ou 33.600 Kbps;
placas de expansão padrão ISA de 16 bits e PCI.

686 (COM PROCESSADOR CYRIX)

(não teve muita aceitação);

16 a 64 Mb de memória RAM;
um drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de CD Rom 16x;
monitor Super VGA colorido;
uma ou duas unidades de disco rígido de 1.2 a 2 Gb;
placa fax-modem 14.400 ou 33.600 Kbps;
placas de expansão padrão ISA de 16 bits e PCI.

PENTIUM PRO

(foi muito utilizado na área gráfica)
de 166 a 200 MHz;
16 a 64 Mb de memória RAM;
um drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de CD Rom 16x;
monitor Super VGA colorido;
uma ou duas unidades de disco rígido de 1.2 a 3.2 Gb;
placa fax-modem 14.400 ou 33.600 Kbps;
placas de expansão padrão ISA de 16 bits e PCI.

PENTIUM MMX

com tecnologia MMX que acelera os gráficos em 3 D;
de 166 a 233 MHz;
16 a 128 Mb de memória RAM;
um drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de CD Rom 16x a 48x;
monitor Super VGA colorido de 14 " ou 15 ";
uma ou duas unidades de disco rígido de 2 a 8 Gb;
placa fax-modem 33.600 a 56.600 Kbps;
placas de expansão padrão ISA de 16 bits e PCI.

PENTIUM II

com tecnologia MMX que acelera os gráficos em 3 D;
processador slot 1;
de 200 a 500 MHz;
16 a 256 Mb de memória RAM;
um drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de CD Rom 16x a 48x;
monitor Super VGA colorido de 14 " ou 15 ";
uma ou duas unidades de disco rígido de 4 a 10 Gb;
placa fax-modem 56.600 Kbps;
placas de expansão padrão ISA de 16 bits e PCI.

PENTIUM II CELERON (INTEL) OU K6 - II (AMD)

processador socket 7;
de 300 a 550 MHz;
16 a 256 Mb de memória RAM;
um drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de CD Rom 48x a 52x;
monitor Super VGA colorido de 14 " ou 15 ";
uma ou duas unidades de disco rígido de 8 a 15 Gb;
placa fax-modem 56.600 Kbps;
placas de expansão padrão ISA de 16 bits e PCI.

PENTIUM III (INTEL) OU K-7 (AMD DURON)

processador slot 1;
de 500 a 1 GHz (mais actual);
32 a 512 Mb de memória RAM;
um drive de 3 1/2 " com capacidade de gravação 1.44 Mb;
drive de DVD, ou CD ROM ou CD RW;
monitor Super VGA colorido de 14 " ou 15 " ou 17 ";
uma ou duas unidades de disco rígido de 10 a 36 Gb;
placa fax-modem 56.600 Kbps;
placas de expansão padrão ISA de 16 bits e PCI.

IMPORTANTE: as configurações acima são básicas, podendo variar de acordo com o fabricante.





HARDWARE E SOFTWARE

Você conhece o significado de " Hardware " e " Software "?

  • Hardware: é o nome dado ao conjunto de dispositivos (componente físicos) que formam o computador, isto é, a máquina propriamente dita.

  • Software: é o nome dado aos programas de um computador, ou seja, o conjunto ordenado de instruções, expresso em linguagens especiais e compreensíveis para a máquina, para que ela possa executar as operações que desejamos.

A EVOLUÇÃO DOS SISTEMAS OPERACIONAIS

O Sistema Operacional é um conjunto de programas que permitem a criação e manutenção de arquivos, execução de programas e utilização de periféricos tais como: teclado, vídeo, unidades de disquete, impressora. O Sistema Operacional serve também de intermediário entre os aplicativos e o computador, pois é ele que coloca os programas na memória para que sejam executados.

Vamos ver, então, um pouco da história dos Sistemas Operacionais para microcomputadores padrão IBM PC:

  • MS-DOS 1.0 e PC-DOS 1.0: Em 1981 surgiram os dois primeiros DOS, ou seja, " Disk Operating System " (Sistema Operacional de Disco).

  • MS-DOS 1.25 e PC-DOS 1.1: Nesta versão, foram acrescentados suporte a discos de dupla face e correcção de " bugs "; foram amplamente distribuídos por OEMs além da IBM.

  • MS-DOS 2.0 e PC-DOS 2.0: Foram lançados em 1983, juntamente com o IBM PC/XT e nesta versão foram acrescentados suporte aos discos rígidos e à estrutura hierárquica de arquivos semelhante aos do UNIX / XENIX.

  • PC-DOS 2.1: Lançado com o PCjr e com correcção de " bugs ".

  • MS-DOS 2.01: Versão lançada com suporte internacional.

  • MS-DOS 2.11: Somente com correcção de " bugs ".

  • MS-DOS 2.25: Veio com suporte ao conjunto de caracteres estendidos.

  • MS-DOS 3.0 e PC-DOS 3.0: Lançados em 1984 juntamente com o PC/AT e foram acrescentados o suporte a discos flexíveis de 1.2 Mb e a discos rígidos maiores.

  • MS-DOS 3.1 e PC-DOS 3.1: Nesta versão foi acrescentado o suporte às redes da Microsoft.

  • WINDOWS 1.0: Em 1985, foi lançado o Windows, que na realidade não era um sistema operacional, mas somente uma interface gráfica com o usuário do MS-DOS, ou seja, para que o Windows funcionasse, havia a necessidade de se carregar previamente o MS-DOS.

  • MS-DOS 3.2 e PC-DOS 3.2: Em 1986, tiveram acrescentado o suporte a discos de 3,5 polegadas.

  • MS-DOS 3.3 e PC-DOS 3.3: Em 1987, foram lançados juntamente com o PS/2 da IBM e possuíam amplo suporte a páginas de código fonte.

  • WINDOWS 2.0: Apareceu, também em 1987, mas com compatibilidade com o OS/2 Presentation Manager.

  • MS-DOS 4.0 e PC-DOS 4.0: Lançado em 1988, com suporte a volumes lógicos maiores do que 32 Mb; " shell " visual.

  • MS-DOS 5.0: Lançado em 1989, com alguns recursos a mais.

  • MS-DOS 5.2: Com correcção de bugs.

  • WINDOWS 3.0: Surgiu em 1990, para ser utilizado em computadores 286 e 386 e foi lançado em grande estilo, mas ainda não teve grande aceitação.

  • MS-DOS 6.0: Em 1993, possuía recursos para verificação do winchester e desfragmentação (Defrag).

  • WINDOWS 3.1: Passou a ser mais conhecido e aceito.

  • MS-DOS 6.2: Última versão do MS-DOS lançada, tinha correcção de " bugs ".

  • WINDOWS 3.11 For Workgroups: Versão para ligação de computadores em rede, passou a ser utilizado pela grande maioria de usuários de microcomputadores.

  • WINDOWS 95: Em 1995, o Windows tornou-se verdadeiramente um Sistema Operacional, funcionando sozinho, sem a necessidade do MS-DOS. Foi quando o seu sucesso estourou.

  • WINDOWS NT: Sistema Operacional para Servidores de Rede.

  • WINDOWS 95 SE (Second Edition): Versão lançada para correcção de bugs.

  • WINDOWS 98: Versão de aperfeiçoamento da versão 95, mas com uma novidade: passa a ser um aplicativo 32 bits.

  • WINDOWS 98 SE (Second Edition): Versão com correcção de bugs.

  • WINDOWS 2000: Lançado em 2000, com correcção de bugs, e suporte a redes, na realidade uma actualização do Windows NT.





    CÓDIGO DE MÁQUINA

    A linguagem do computador, também chamada de código de máquina, é composto somente de dois números: 0 e 1. E com

    SISTEMA DECIMAL (BASE 10)

    SISTEMA BINÁRIO (BASE 2)

    milhar
    103

    centena
    102

    dezena
    101

    unidade
    100

    milhar
    23

    centena
    22

    dezena
    21

    unidade
    20

    5

    7

    9

    2

    1

    0

    1

    0

    2 x 1 =2
    9 x 101 =90
    7 x 102 =700
    5 x 103 = 5000

    Valor =5792

    0 x 20 = 0
    1 x 21 = 2
    0 x 22 = 0
    1 x 23 = 8

    Valor = 10

    estes dois números, é possível escrever absolutamente tudo. Os códigos 0 e 1 são também chamados de sistema binário, e significam para o computador: 0 = desligado e 1 = ligado. A união de 8 conjunto de " zeros " e " uns " formam um carácter qualquer como por exemplo a letra " A ": 1010 0001.

    Veja na tabela à direita, uma comparação do Sistema Binário com o Sistema Decimal (que é o normalmente utilizado pelas pessoas):

    Se você quiser saber quais os códigos binários que são necessários para escrever o seu nome, ou uma palavra qualquer, dê uma olhada na tabela em baixo:

    Carácter
    Código ASCI
    Carácter
    Código ASCI
    (espaço)
    .
    (
    +
    $
    *
    )
    -
    /
    '
    ,
    =
    A
    B
    C
    D
    E
    F
    G
    H
    I
    J
    K
    L
    0100 0000
    0100 1110
    0100 1000
    0100 1011
    0100 0100
    0100 1010
    0100 1001
    0100 1101
    0100 1111
    0100 1100
    0100 0111
    0101 1101
    1010 0001
    1010 0010
    1010 0011
    1010 0100
    1010 0101
    1010 0110
    1010 0111
    1010 1000
    1010 1001
    1010 1010
    1010 1011
    1010 1100
    M
    N
    O
    P
    Q
    R
    S
    T
    U
    V
    W
    X
    Y
    Z
    0
    1
    2
    3
    4
    5
    6
    7
    8
    9
    1010 1101
    1010 1110
    1010 1111
    1011 0000
    1011 0001
    1011 0010
    1011 0011
    1011 0100
    1011 0101
    1011 0111
    1011 0111
    1011 1000
    1011 1001
    1011 1010
    0101 0000
    0101 0001
    0101 0010
    0101 0011
    0101 0100
    0101 0101
    0101 0110
    0101 0111
    0101 1000
    0101 1001
    BITS & BYTES

    Bit - é a menor unidade de dado do computador, podendo assumir um dos dois valores 0 ou 1, sendo que, se o nível de energia for baixo assumido é 0 e se o nível de energia for alto o valor assumido é 1. Se desejarmos representar números maiores, deveremos cominar bits em palavras.
    Byte
    - é um conjunto de 8 bits, formando segundo uma sequência que representa um carácter. Pode-se fazer uma correspondência biunívoca entre cada número decimal (0 a 9), as letras maiúsculas e minúsculas (A até Z), os símbolos matemáticos, a pontuação, etc, com um respectivo byte.
    Kilobyte
    ou Kbyte ou Kb - um Kbyte corresponde a 210 bytes ou seja, 1024 bytes. Ex.: um microcomputador antigo tipo PC-XT possuía 640 Kbytes de memória, ou seja, 655.360 bytes de memória, porque: 640 Kb x 1024 bytes = 655.360 bytes. Isto quer dizer que ele poderia ter na sua memória até 655.360 caracteres.
    Megabyte
    ou Mbyte ou Mb - um Mbyte corresponde a 1024 Kbytes, 1.048.576 bytes.
    Gigabyte
    ou Gbyte ou Gb - um Gbyte corresponde a 1024 Mbytes.
    Terabyte
    ou Tbyte ou Tb - um Tbyte corresponde a 1024 Gbytes.

    LINGUAGENS DE COMPUTAÇÃO

    São programas utilizados para criar sistemas e softwares aplicativos e podem ser de 2 tipos:

    - Linguagens de Baixo Nível: que são linguagens totalmente orientadas para a máquina, ou seja, são as que mais se aproximam do " Código de Máquina ", ou seja, dos 0 e 1, e há a necessidade de se conhecer solidamente o hardware. Os programas resultantes destas linguagens são de pequeníssimo tamanho e de extrema rapidez. Exemplo: Assembler, Linguagem C.

    - Linguagens de Alto Nível: é uma linguagem mais orientada para o problema, de modo que o programador deve dar pouca ou nenhuma atenção às características do computador que irá executar o programa. Os programas resultantes destas linguagens não são tão rápidos. Exemplo: Delphi, Visual Basic, Pascal, o antigo Clipper, etc.

    Para que os programas funcionem, eles necessitam ser traduzidos para o código de máquina (ou seja o código fonte do programa deve ser transformado em código objecto) e para isso precisa de um tradutor ou de um compilador:

    - Tradutor: deve estar na memória enquanto se executa o programa; o programa precisa ser traduzido cada vez que é rodado; cada instrução vai sendo traduzida a medida que vai sendo executada, com isso o programa acaba por se tornar mais lento. Exemplo: Access, DBase, etc.

    - Compilador: não precisa estar na memória enquanto se executa o programa, pois este é traduzido inteiramente uma vez só, tornando sua execução bem mais rápida. Exemplo: Delphi, Clipper, Pascal, C, etc.

    TIPOS DE SOFTWARE

    Existe uma quantidade muito diversificada de softwares disponíveis no mercado. Entre os tipos mais conhecidos estão:

    • Sistemas Operacionais: Controlam o computador (sem eles, o computador não funciona). Exemplo: MS-DOS, Windows, OS/2, Unix, etc.

    • Editores de Texto: Substituem, com muitíssimas vantagens, a máquina de escrever, podendo-se fazer textos, memorandos, cartas, contratos, relatórios, correspondências em geral, documentos, etc. Num Editor de Textos, podem ser utilizados diversos recursos, tais como: sublinhado, negrito, fontes de letras de diversos tipos, cores, correcção ortográfica, inserção de textos, etc. Exemplo: Word, WordPerfect, Lotus AmiPro, etc.

    • Planilhas de Cálculo: Servem para se fazer todos os tipos de cálculos e operações matemáticas, sendo bastante úteis para diversas aplicações, tais como: folha de pagamento, contabilidade, contas a pagar e a receber, cálculos estatísticos, balanços, criações de gráficos, etc. Exemplo: Excel, Lotus 123, etc.

    • Gestionário de Base de Dados: Os quais serem para armazenar informações, tais como, cadastro de clientes, fornecedores, materiais, peças, mala-diretas, etc. Podendo ser efectuados cálculos e emitidos relatórios, com grande facilidade. Exemplo: Access, DBase, Paradox, etc.

    • Programas Gráficos - CAD: Os CAD - Computer Aided Design ou seja, programas de projectos assistidos por computador que são muito utilizados por arquitectos, engenheiros, desenhistas, ilustradores, etc. e servem para se criar desenhos, imagens, alterar fotografias. Exemplo: Auto-CAD, etc.

    • Editores Gráficos: Servem para se criar desenhos, imagens, alterar fotografias. Exemplo: Corel Photo Paint, Paint Shop Pro, Ulead Photo Impact, etc.

    • Programas de Edição Gráfica: São programas para unir imagens e textos, na criação de apresentação gráfica: folhetos, panfletos, cartões de visita, cartões de cumprimento, cartões postais, etiquetas, textos para jornais, etc. Exemplo: Corel Draw, Page Maker, MS-Publisher, etc.

    • Integrados : Servem para os usuários que necessitam trabalhar com diversos softwares ao mesmo tempo (planilha, editore de texto, banco de dados, gráficos), porém possuem menores recursos do que os softwares adquiridos isoladamente. Exemplo: MS-Works, StarOffice, etc.

    • Programas Educacionais : São de diversos tipos, desde programas educacionais para crianças, quanto cursos de línguas, tradutores, enciclopédias, dicionários, etc.

    • Programas de Jogos : Servem para divertir crianças e adultos, e existem vários e de diversos tipos, desde bem simples até muito complexos, incluindo imagens em 3 dimensões. Exemplo: Paciência, Come-come, Doom, Prince of Persia, Simuladores de Submarino, de Avião, de Helicóptero, Corridas de Formula 1, etc.

    • Browsers : São programas que servem para a navegação na Internet. Exemplo: Internet Explorer, FireFox, Netscape Navigator, Opera, etc.




    A HISTÓRIA DE YAHOO!

    YahooFevereiro de 1994, dois estudantes de Stanford, Jerry Yang e David Filo editaram " Jerry e David's Guide to the World Wide Web ". Um site onde eles disponibilizavam seus favoritos Internet (bookmarks), classificados em várias categorias. A ideia de uma forma mais abrangente desse guia vem dois meses depois. Yahoo, que era então uma iniciativa privada, acaba por ser fundada oficialmente em 2 de Março de 1995.

    A história de Yahoo começa então com um anuário de referenciamento de mais de 30.000 sites em 19 categorias diferentes. Jerry e David são mais ambiciosos, mas para realizar suas ambições alguns fundos eram necessários. Tim Brady, um amigo de Jerry no segundo ano de Harvard Business School, que era responsável pela elaboração de um plano de negócios de Sequoia Capital ficou seduzido pelo projecto, e rapidamente financiou Yahoo a um limite de 4 milhões de dólares.

    O primeiro artigo do Yahoo News foi publicado no domingo, 12 de Março de 1995 no San Jose Mercury News. NaquelaDavid Filo época, o site já indexava uma média de 100 endereços por dia. O link indicado no artigo apontava para o servidor da Universidade de Stanford, cuja rede teve dificuldades para hospedar um site já tão popular.

    Uma vez incorporados os fundos angariados e a crescente reputação, os empregados fizeram sua primeira entrada no futuro heavyweight web. Após os dois fundadores, Tim Brady - um amigo de Jerry Yang, que escreveu o plano de negócios da empresa - é o primeiro funcionário da Yahoo, o que deixou em 2002. Siga Donald Lobo, contratada para desenvolver o site, Srinija Srinivasan, o editor do anuário e CEO Tim Koogle, um antigo Motorola iriam lançar o " start-up ".

    Desde o Verão de 1994, o site do Jerry Yang e David Filo hospeda mais de 10.000 visitantes por dia. Naquela época, o número de utilizadores da Internet a nível mundial era inferior a 40 milhões. Yahoo era o local ideal para a orientação sobre a Web, e os webmasters corriam para indexar seus sites no Yahoo que aumentava de forma colossal o numero de aderentes

    Jerry YangYahoo integrava um espaço de publicidade na sua home page na primeira versão do site. Depois criou as bases para o livre modelo baseado exclusivamente sobre os rendimentos provenientes da publicidade. Um modelo original que demonstrava a sua relevância muito rapidamente: Yahoo entra na Nasdaq em Março de 1996 e gera mais de 19 milhões de dólares em vendas nesse ano.

    Logo, o Yahoo se torna uma referência. O site, a marca de exclamação ponto tornar-se o símbolo da Internet junto do grande público. Yahoo adquire uma forte simpatia e se tornou a figura da " nova economia ", um relançamento da economia, em oposição a uma economia " doce ". Esta distinção tem também implicações sobre a gestão para os excessos de funky negócio.

    início, mas está crescendo rápido. O líder vagas são tomadas, deve prevalecer, e rapidamente. Yahoo está investindo pesadamente em suas campanhas publicitárias para fazer " Do You Yahoo? " um gancho no mundo conhecido.





    HISTÓRIA DA INTERNET

    Em 1969, em plena guerra fria, o governo americano, ciente da importância dos computadores e de sua interligação em uma guerra mundial, encomendou um projecto de uma rede híbrida de computadores que permitisse, mesmo sob um bombardeio, comunicação rápida, eficiente e ainda oferecesse rotas alternativas.

    A criação desta rede ficou sob a responsabilidade da ARPA (Advanced Research Projects Agency). Chamada de ARPAnet, esta rede interligava alguns laboratórios de pesquisa. Em 1972 a ARPAnet já contava com 40 computadores interligados e em 1973 foi efectuada a primeira conexão internacional, com a Inglaterra e a Noruega.

    Em 1975 a ARPAnet deixa de ser uma rede experimental para ser uma rede operacional. Neste mesmo momento, iniciou-se o desenvolvimento do protocolo de comunicação TCP/IP.

    Em 1983 três fatos importantes aconteceram: Primeiro, o protocolo TCP/IP é adoptado como um padrão para as redes militares. Em segundo lugar, iniciou-se o desenvolvimento do Berkeley UNIX (BSD). E finalmente, ARPAnet é dividida em duas redes. Uma, denominada MILNET, que passa a fazer parte da Defense Data Network (DDN) e uma nova ARPANET. Então, o termo Internet (inter-redes) foi usado para referenciar as duas redes.

    A partir deste momento, a tecnologia da ARPAnet (Internet) passou a ser usada para conectar universidades e laboratórios de pesquisa nos EUA e em diversos outros países.

    Num primeiro momento a Internet oferecia serviços básicos como, por exemplo, correio electrónico, telnet, ftp e finger.

    Em 1987, com a liberação, nos EUA, do uso comercial da Internet e a partir de 1989 com o desenvolvimento do WWW (World Wide Web), pelo CERN - um laboratório de física de partículas localizado na Suíça - houve um aumento significativo do número de hosts e usuários conectados na " grande rede ". Porém, o crescimento vertiginoso aconteceu a partir de 1993 com desenvolvimento do programa Mosaic, navegador WWW que permitiu o acesso ao Web em um ambiente gráfico. Actualmente, estima-se que existam mais de 9 milhões de computadores e mais de 70 milhões de usuários da Internet em todo o mundo.

    A primeira espinha dorsal (backbone) da Internet no Brasil foi montada em 1992, através da RNP - Rede Nacional de Pesquisa (criada dois anos antes). Este backbone interligava as principais universidades e centros de pesquisa do país, além de algumas organizações não-governamentais. Em 1995 foi liberado o uso comercial da Internet no Brasil.

    A Internet é uma rede capaz de interligar todos os computadores do mundo. O que faz a Internet tão poderosa assim é uma espécie de esperanto da informática que atende pelas siglas TCP/IP (Protocolo de Controle de Transferência/Protocolo Internet, em inglês). Todos os computadores que entendem essa língua são capazes de trocar informações entre si. Assim pode-se conectar máquinas de diferentes tipos, como PCs, Macs e Unix.

    A Internet é organizada na forma de uma malha. Se você pretende aceder um computador no Japão, por exemplo, não é necessário fazer um interurbano internacional. Basta conectar-se a um computador ligado à Internet na sua cidade. Esse computador local está conectado a uma máquina em outro estado (ou país) e assim por diante, traçando uma rota até chegar ao destino. São máquinas de alta capacidade, com grande poder de processamento e conexões velozes, conhecidas como servidores, controladas por universidades, empresas e órgãos do governo.

    Essa forma de funcionamento garante um custo baixo de conexão. Você só precisa pagar a ligação local até o seu fornecedor de acesso. Essa empresa (ou instituição) cobra taxa mensal de cada usuário para cobrir, entre outros, os custos da conexão com a rede. Mesmo assim, você paga o mesmo preço se enviar uma mensagem para o Japão ou para seu vizinho.

    Além de ficarem conectados entre si, os servidores Internet têm outras funções. A mais comum é fornecer acesso. Instituições académicas permitem a funcionários, professores e alunos se conectarem à rede através de computadores instalados no campus ou de casa, pela linha telefónica. As grandes empresas oferecem acesso à Internet a seus funcionários por meio de suas próprias redes internas. Por fim, existem empresas especializadas em vender conexão à rede.

    Os servidores Internet podem oferecer vários serviços. Copiar arquivos, enviar mensagens para outros usuários, participar de grupos de discussão e visitar serviços de informação são os principais:

    • Web
      O principal serviço da Internet é a Web, a parte multimédia da rede. É na Web que você pode ler jornais electrónicos, fazer compras em shoppings virtuais e consultar bancos de dados. É possível ainda saltar de um lugar a outro na Internet por meio de páginas interligadas. A quantidade e diversidade do conteúdo colocado na Web é tão grande que é preciso utilizar serviços de catalogação para encontrar as informações que você está procurando. Clique aqui para saber mais sobre a Web.
    • Correio electrónico
      Com o correio electrónico, pode-se enviar mensagens para qualquer usuário da rede. O texto chega ao destino em alguns minutos (ou horas, dependendo do tráfego) e o usuário não precisa estar conectado para receber a carta. A mensagem fica armazenada em uma caixa postal electrónica até que o destinatário resolva abrir o envelope digital. As vantagens sobre o fax são muitas. Você pode armazenar em seu computador todas as mensagens enviadas e recebidas pelo tempo que quiser. É possível também copiar trechos dos textos que escrevem para você e comentá-los na sua resposta. Clique aqui para saber mais sobre o e-mail.
    • Transferência de arquivos
      Com o FTP é possível copiar programas gratuitos de servidores da rede. A maioria destes servidores está localizada em universidades e contém todos os tipos de software.
    • Grupos de discussão
      A Internet é uma grande comunidade virtual. Como toda comunidade, tem clubes que reúnem pessoas com interesses semelhantes. Na rede, esses clubes são chamados de grupos de discussão e podem acontecer de duas formas. Existem os grupos da Usenet, que funcionam como quadros de avisos divididos por assunto, e os canais de chat, onde os usuários podem bater papos ao vivo em salas especiais para cada tópico. Na Usenet, você pode entrar no grupo dos fãs do seriado Os Simpsons, ler as mensagens dos demais usuários e enviar suas próprias contribuições. Existem mais de 16 mil grupos na Usenet, com assuntos tão diversos como nano tecnologia e patins in-line. Clique aqui para saber mais sobre a Usenet. Os canais de chat permitem que vários usuários conversem ao mesmo tempo através de frases digitadas no teclado. As conversas são organizadas em salas virtuais, que podem ou não ser dedicadas a um determinado assunto.











Os primeiros computadores da década de 1940 possuíam somente dois níveis de linguagem de programação: o nível da linguagem de máquina, no qual toda a programação era feita, e o nível da lógica digital, onde os programas eram efetivamente executados. Com Wilkes, em 1951, surgiu a ideía de se projetar um computador a três níveis, a fim de se simplificar o hardware. Esta máquina tinha um programa denominado interpretador armazenado permanentemente, cuja função era executar os programas em linguagem de máquina. O hardware assim poderia ser simplificado: teria apenas que executar um pequeno conjunto de microinstruções armazenadas, ao invés de todo o programa em linguagem de máquina, o que exigia menos circuitos eletrônicos. A partir daí começam a evoluir as linguagens e as arquiteturas das máquinas, impulsionadas, principalmente, pelo aparecimento de um novo conceito na História da Computação: os Sistemas Operacionais.

Da segunda geração de computadores aos dias de hoje

A segunda geração (1956 - 1963) foi impulsionada pela invenção do transistor (1948) e em 1956 já se produziam computadores com esta tecnologia. Apareceram também os modernos dispositivos, tais como as impressoras, as fitas magnéticas, os discos para armazenamento, etc. Os computadores passaram a ter um desenvolvimento rápido, impulsionados principalmente por dois fatores essenciais: os sistemas operacionais e as linguagens de programação.Os circuitos integrados propiciaram um novo avanço e com eles surgiram os computadores de terceira geração (1964 - 1970). As tecnologias LSI, VLSI e ULSI abrigam milhões de componentes eletrônicos em um pequeno espaço ou chip, iniciando a quarta geração, que vem até os dias de hoje. Os atuais avanços em pesquisa e o projeto de novas tecnologias para os computadores estão possibilitando o surgimento da quinta geração. Dois avanços que configuram um divisor de águas são o processamento paralelo, que quebrou o paradigma de von Neumann, e a tecnologia dos supercondutores.

Arquiteturas de computadores e sistemas operacionais

O termo arquitetura de computador vem da possibilidade de se visualizar uma máquina como um conjunto hierárquico de níveis que permite entender como os computadores estão organizados. Os primeiros computadores digitais por exemplo somente possuiam dois níveis. O primeiro é chamado o nível da lógica digital, formado no início por válvulas e depois por transistores, circuitos integrados, etc. O segundo é chamado de nível 1, também chamado de nível de microprograma, que é o nível da linguagem da máquina, onde toda a programação era feita, através de zeros e uns, e que posteriormente seria o responsável por interpretar as instruções do nível 2.

Com Maurice Wilkes em 1951 surgiu outro nível, onde as instruções eram escritas de um modo mais conveniente para o entendimento humano: a técnica consistia em substituir cada instrução desse novo nível por um conjunto de instruções do nível anterior (nível da máquina) ou examinar uma instrução de cada vez e executar a sequência de instruções equivalentes do nível da máquina. Denominam-se estes procedimentos por tradução e interpretação. Isto simplificou o hardware que agora somente tinha um conjunto mínimo de instruções e portanto menos circuitos eram necessários.

A partir daí a evolução do hardware avança juntamente com as novas descobertas científicas: quase na mesma época do aparecimento dos transistores, por exemplo, surgiu o conceito de barramento de dados, que acelerou a velocidade dos computadores. Ao mesmo tempo apareceram os grandes sistemas operacionais, (simplificadamente, um conjunto de programas mantidos no computador durante todo o tempo, liberando o programador de tarefas relacionadas diretamente com o funcionamento da máquina), como o DOS e OS, da IBM. Estes evoluíram possibilitando novos conceitos que melhoraram a performance das máquinas, como por exemplo os sistemas de multiprogramação, isto é, a possibilidade de vários programas serem executados em paralelo em uma mesma da máquina. Se um destes programas tiver origem em um terminal remoto, tal sistema será chamado de tempo compartilhado. Um importante marco que possibilitou esses avanços foi a introdução de processadores de entrada e saída, também chamados de canais. Isso motivou o aparecimento dos conceitos de concorrência, comunicação e sincronização: uma vez que dois processadores estão operando simultaneamente, surge a necessidade de prover mecanismos para sincronizá-los e estabelecer um canal de comunicação entre eles.

É a era das arquiteturas mainframes: o suporte às tarefas computacionais e o desenvolvimento das aplicações eram feitos numa área central, denominada centro de computação. Terminais conectados diretamente à máquina eram utilizados somente por pessoas relacionadas às aplicações disponíveis.

Nos anos 70 surgiram os supercomputadores, máquinas que inovaram na arquitetura. Até o momento, o crescimento da eficiência dos computadores estava limitado pela tecnologia, mais especificamente pelo processamento escalar que exigia que o processador central de um computador terminasse uma tarefa para começar a realizar outra, produzindo o gargalo de von Neumann. Um avanço significativo veio com o supercomputador Cray-1, da Cray Research, em 1971. Foi a primeira máquina pipeline, cujo processador executava uma instrução dividindo-a em partes, como na linha de montagem de um carro. Enquanto a segunda parte de uma instrução estava sendo processada, a primeira parte de outra instrução começava a ser trabalhada. A evolução seguinte foi a denominada máquina vetorial, ou máquina SIMD (single instruction multiple data) cujo processador trabalhava com mais de um conjunto de dados ao mesmo tempo. Um pouco depois surgiu a arquitetura MIMD (multiple instructions multiple data) e apareceram máquinas com múltiplos processadores como a Connection Machine, com 65.536 processadores.

Há primariamente três limites para a performance dos supercomputadores: a velocidade do processador, o gasto de tempo (o termo técnico, amplamente utilizado na Computação, é overhead), que envolve fazer um grande número de processadores trabalharem juntos em uma única tarefa, e a velocidade de entrada e saída entre os processadores e entre os processadores e a memória. A velocidade dos processadores aumenta a cada dia, mas a um alto custo de pesquisa e desenvolvimento, e a realidade é que se está alcançando os limites dos processadores baseados em silício. Seymour Cray demonstrou que a tecnologia de gálio arsênico poderia ser a solução, mas é muito difícil trabalhar com ele e poucas indústrias estariam aptas a desenvolver processadores desse tipo. A solução, como se falará mais abaixo caminha para o uso de um maior número de processadores, dando maior velocidade ao computador pelo uso desses processadores através do processamento paralelo.

Com a tecnologia VLSI (quarta geração de computadores) surgiram os minicomputadores, o que possibilitou muitas empresas e universidades informatizarem seus departamentos. Os grandes usuários interligavam os minicomputadores para enviar tarefas aos seus mainframes. A arquitetura principal continuava no entanto estabelecida no centro de computação. Do minicomputador para o computador pessoal foi somente um passo, e no início da década de 1980 apareceram os primeiros PC's. Ainda nos anos de 1980 apareceram as arquiteturas RISC (Reduced Instruction Set Code), com a promessa de ganho de desempenho pela eliminação do conceito de microprograma. De qualquer maneira estas máquinas ainda são máquinas de von Neumann tradicionais, com todas as suas limitações, a maior delas a velocidade dos circuitos que não pode crescer indefinidamente.

As tentativas de quebrar o gargalo de von Neumann e o início da descentralização dos sistemas, com o surgimento das arquiteturas de rede que possibilitaram a universalização do uso da tecnologia da Computação, fizeram emergir e desenvolver as arquiteturas paralelas de hardware.

A idéia de incluir paralelismo nos computadores é tão antiga quanto os próprios computadores. Trabalhos desenvolvidos por von Neumann na década de 1940 já discutiam a possibilidade de algoritmos paralelos para a solução de equações diferenciais. O sistema Model V, desenvolvido entre 1944 e 1947 por G. R. Stibitz e S. B. Willians nos laboratórios da Bell Telephone é um exemplo típico de máquina paralela. Constituído por dois processadores e de três posições de entrada e saída, esse multiprocessador primitivo tanto era capaz de executar dois programas distintos como era possível que os dois processadores ficassem alocados para um mesmo programa. Posteriormente foi desenvolvido o Illiac IV, na década de 1960, constituído por 64 processadores. Como foi citado, a partir da década de 1970 começaram a ser produzidos supercomputadores baseados em arquiteturas paralelas.

Juntamente com as arquiteturas evoluiram os sistemas operacionais e a evolução das linhas de processadores de uma empresa como a Intel servem para refletir a evolução da indústria dos computadores em um determinado período. Como destaque podem-se citar o MS-DOS, o OS/2 e o UNIX. Especialmente este último, que surgiu como fruto dos trabalhos de um engenheiro da Bell Labs, Ken Thompson, foi popularizado nos meios universitários que usavam computadores PDP-11/45, durante a década de 1970. A palavra UNIX espalhou-se rapidamente por todo o mundo e no início de 1980 este sistema operacional estava disponível em mais máquinas do que qualquer outro sistema operacional da época, continuando hoje ainda a ser amplamente utilizado.

A mais nova arquitetura, que determinou a mais recente evolução da Computação foi o resultado da rápida convergência das tecnologias de comunicações de dados, telecomunicações e a própria informática. É a Internet, ou modelo computacional baseado em uma rede, que teve sua origem nos anos da década de 1970, como um esforço do Departamento de Defesa dos EUA para conectar a sua rede experimental, chamada ARPAnet, a várias outras redes de rádio e satélites. Espalhou-se logo em seguida nos meios acadêmicos e está bastante popularizada.

Continuarei a publicar mais artigos sobre o inicio da era dos computadores mais a frente.



1 – Mainframes

Mainframe_wiki

Computadores enormes, trancados em salas refrigeradas e muitos caros, restritos a poucos, em geral grandes empresas e bancos. Esses eram os mainframes, sucesso na década de 70.

2 – Apple II

Apple-II
Ainda nos anos 70, mais precisamente em 1977, surgia o primeiro microcomputador como conhecemos hoje, o Apple II, com direito a teclado integrado e recurso capaz de gerar gráficos coloridos. Parte da linguagem de programação dele havia sido feita pela Microsoft, uma variação do Basic para o Apple II.

3 – IBM PC

IBM-PC
Gigante no mercado de computadores de grande porte (ainda hoje é assim), a IBM queria entrar no mercado da microinformática. Isso ocorreu em 1980, ano em que a Big Blue juntou vários engenheiros para desenvolver um novo produto, o IBM PC. Na época, um sucesso. A brincadeira começava a ficar séria.

4 – Parceria IBM-Microsoft

bill-gates
O IBM PC necessitava de um sistema operacional. A Microsoft dizia ter um, mas, na verdade, não tinham nada pronto. Após fechar contrato de licenciamento do DOS para a IBM, Bill Gates e seu parceiro, o programador Paul Allen, foram atrás da nanica Seatlle Computer e da sua joia, o QDOS. Adquiriram o sistema por irrisórios US$ 50 mil. A Microsoft então adaptou-o e criou o PC-DOS. O contrato com a IBM previa um royalty, entre 10 e 50 dólares por máquina vendida, mais um pequeno pagamento inicial. Só que o sistema continuava sobre propriedade da Microsoft, que podia distribuir versões modificadas (MS-DOS). Baita negócio para Bill Gates. O restante da história todo mundo sabe…

5 – Macintosh

Macintosh
Disposta a manter-se na liderança do mercado de microinformática, a Apple se viu obrigada a criar um produto novo e de fácil operação para o usuário. Em 1979, Jef Raskin, considerado especialista em interfaces homem-máquina, criou as bases do projeto Macintosh. Steve Jobs se interessou e, em janeiro de 1981, tomou a direção do projeto, finalizado com sucesso no início de 1984, deixando a IBM para trás.

6 – Microsoft e a popularização do Windows

Microsoft-wiki
Para enfrentar o Mac OS (na época chamado de System 1.0), a Microsoft criou o Windows 1.0, em 1985. Mas foram os seus sucessores, da década de 1990, que fizeram sucesso. A Microsoft, que usufruía de enorme expansão no mercado de PCs, criou duas linhas de sistemas operacionais: uma derivada do Windows 1.0 e do DOS e outra de sistemas operacionais totalmente gráficos e orientados a servidores. O Windows XP, chegou em 2001, unificando as linhas e seu sucessor, o Windows Vista, modificou completamente a interface gráfica. Hoje, a Microsoft trabalha no Windows Server 2008 (para servidores) e no Windows 7, sucessor do Windows Vista, que foi lançado em outubro de 2009.



Primeiro Computador

Primeiro Computador

O ser humano sempre procurou produzir mais com menos esforço e criou as máquinas para a simplificação e a evolução do trabalho humano.

A primeira calculadora que realizava operação de soma e subtração, denominada “La Pasqualini”, foi criada em 1942 pelo francês Blaise Pascal. Essa máquina funcionava por meio de uma engrenagem de rodas dentadas que levava os dígitos de uma coluna à outra. Os resultados eram mostrados uma espécie de janelinha.

Leibniz, sucessor de Pascal, construiu uma máquina bem sofisticada para a época, com avanços práticos. Ela trabalhava por meio de alavancas e relógios.

O matemático inglês Babbage desenvolveu a idéia de um dispositivo de entrada e saída. Essa máquina usava cartões perfurados para receber comandos do meio externo.

Alan Turing desenvolveu o que conhecemos hoje como a base de todas as técnicas de programação, numa forma de inserir dados nas máquinas, chamada de decodificação, As informações eram transformadas em sinais binários, ou seja, zero (0) e um (1). A partir desse momento as maquinas puderam trabalhar com todos os tipos de informações.

A evolução da maquina computador teve a chance de ser testada em um grande evento: o censo estadunidense de 1890. A grande inovação introduzida por Herman Hollerith foi à utilização da eletricidade para por em funcionamento o computador.

O crescente avanço da tecnologia utilizada na criação de máquinas chamou a tenção dos milhares de estadunidenses, que, interessados no poder que essas maquinas poderiam trazar a longo prazo, empregaram vultosos investimentos em pesquisas e projetos sobre o computadores. Durante a 2° guerra mundial. Os militares começaram a ter os primeiros resultados desses investimentos.

O Mark I, uma enorme computador que utilizava milhares de relès, foi desenvolvido pela marinha em parceria com a Universidade de Harvard e a IBM, em 1944. Um dos problemas apresentados pelo Mark I era o ruído alto e intenso que ele emitia quando estava funcionando.

No decorrer da 2° Guerra Mundial, criou-se um novo grande computador, com fins bélicos: o ENIAC o qual sua sigla significou Electronic Numeric Integrator and Calculator. Ele funcionava por meio de um sistema construído inteiramente por válvulas. Esse computador não chegou a ser utilizado, pois ficou pronto somente em 1946, quando a guerra já havia terminado.

Após o ENIAC, foi elaborado o projeto de outro computador, o EDVAC, projetado com programação interna.

Em 1949, os computadores eram usados apenas em projetos governamentais e acadêmicos.

A IBM começou, em 1951, a produzir computadores em série.

Um professor de Princeton, nos Estados Unidos, Von Neumann, criou um sistema de estrutura lógica para o computador, para que pudesse trabalhar com vários tipos de informações ao mesmo tempo.

As idéias de Von Neumann transformaram o mundo da computação. Outro avanço tecnológico foi à criação do transistor, peça eletrônica com materiais semicondutores e com a mesma função das válvulas, porém, mais rápido, maior confiabilidade, eficiência e durabilidade, utilizando menores quantidades de energia, além de esquentar menos que as válvulas.

O transistor possibilitou a redução continua dos custos de produção dos computadores, tornando os computares mais acessíveis.

Com a evolução dos transistores, desenvolveu-se a idéia de criar uma peça com maior poder de processamento de informações: criou-se então o chip em apenas uma peça.

A história da computação modifica-se continuamente, e hoje chegamos a um estágio em que todos os equipamentos acabam se tornando ultrapassados, pois a cada dia cri-se um equipamento novo, mais rápido e com maior poder de processamento.


Introdução sobre a história da tecnologia

O ser humano, dotado de sua inteligência, buscou formas, durante toda a história da tecnologia de vencer os obstáculos impostos pela natureza. Desta forma, foi desenvolvendo e inventando instrumentos tecnológicos com o objetivo de superar dificuldades. Podemos dizer que a necessidade é a mãe das grandes invenções tecnológicas.


Acompanhe abaixo um histórico da história da evolução tecnológica:

1291 - Na Itália surgem os primeiros espelhos.
1440 - Foi criada a tecnologia da impressão por GUTENBERG.
1454 - O alemão Johann Gutenberg. inventa a máquina chamada de Imprensa. Com está máquina o homem passou a produzir de forma mais rápida e eficiente, os livros. Esse invento causou uma revolução na cultura da época.
1590 - O holandês Zacharias Janssen (1580-1638?) fabrica o microscópio, utilizando técnicas usadas na fabricação de lentes para óculos.
1592 - O astrônomo e inventor italiano cria o primeiro termômetro utilizando o sistema de água para a medição de temperatura.
1643 - O cientista italiano Evangelista Torricelli inventa o barômetro para medir a pressão atmosférica.
1707 - O físico inglês John Floyer inventa o relógio de pulso.
1712 - O engenheiro inglês Thomas Newcomen inventa a máquina a vapor.
1800 - O físico italiano Alessandro Volta cria a bateria elétrica.
1822 - Foi produzida a primeira imagem reconhecida como fotografia pelo francês JOSEPH NICÉPHORE NIÉPCE
1839 - O artista e pesquisador francês Louis-Jacques-Mandé Daguerre tira a primeira fotografia, com sua máquina chamada daguerreótipo
1860 - O inventor belga Jean-Joseph-Etienne Lenoir desenvolve o primeiro motor a explosão.
1874 - Foi inventado o rádio
1876 - O americano Alexander Graham Bell inventa o telefone, possibilitando a comunicação entre pessoas situadas a longas distâncias.
1879 - O americano Thomas Alva Edison inventa a lâmpada elétrica.
1895 - Foi criado o cinematógrafo pelos irmãos LUMIÉRE.
1901 - É criado o rádio pelo italiano Guglielmo Marconi.
1903 - Os irmãos Wright pilotam o primeiro avião.
1904 - Criadas pelo engenheiro inglês John Ambrose Fleming surgem as válvulas eletrônicas.
1906 - O brasileiro Alberto Santos Dumont voa em paris no 14 bis e passa também a ser considerado um dos pais da aviação junto com os irmãos Wright.
1941 - O engenheiro inglês Frank Whittle desenvolve o avião a jato.
1943 - A empresa japonesa Motorola lança no mercado o walkie-talkie.
1945 - Os EUA detonam no deserto do Novo México a primeira bomba atômica.
1946 - O engenheiro americano Vannevar Bush desenvolve um computador usando válvulas de rádio.
1947 - A televisão começa a chegar nos lares de pessoas de todo o mundo.
1948 - Começam a ser utilizados os chips de silício e as válvulas eletrônicas.
1956 -O pager é lançado nos Estados Unidos.
1961 - Lançada a Vostok, a primeira nave espacial tripulado por ser humano a sair da atmosfera terrestre.
1965 - Lançados os primeiros satélites de comunicação. Inaugura uma nova era na transmissão de dados eletrônicos.
1972 - Os discos laser são lançados revolucionando a indústria fonográfica.
1977 - Lançado nos Estados Unidos o primeiro telefone celular.
1981 - Primeira viagem de um ônibus espacial.
1995 - Dave Wineland e Chris Monroe desenvolvem o primeiro transistor do tamanho de um átomo.
1998 - Lançado no Brasil os primeiros DVDs.
1999 - A Internet cresce no mundo todo em velocidade impressionante. Os arquivos de MP3 começam a ser usados e transmitidos pelas ondas da

Durante o período conturbado pela Segunda Guerra Mundial – 1939 / 1945 – foi desenvolvida investigação e implantação de projectos de electrónica e computadores das quais uma pequena parte é publicamente conhecida. Só a partir de 1996 a NSA – National Security Agency USA – liberta os denominados “segredos de guerra” e começam a ser conhecidos publicamente fatos que conduzem ao refazer de uma “história oficial” há vários anos repetida e induzida na área da Ciência da Computação. Tradicionalmente a origem dos Computadores electrónicos tem sido atribuída ao ENIAC - Electronic Numerical Integrator and Automatic Computer - construído na Moore Scholl of Electrical Engineering da University of Pensylvania nos USA entre Maio 1943 (31 de Maio de 1943 com contrato assinado em 5 de Junho de 1943
com o USA Army - Ordnance Department; Ballistic Research Laboratory) e Novembro de 1945. O ENIAC foi formalmente apresentado à Imprensa no dia 15 de Fevereiro de 1946 na Moore School of Electrical Engineering. O ENIACfoi entregue oficialmente ao USA Army em 30 de Junho de 1946. Desligado em 9 de Novembro de 1946 arrancou, nas suas novas instalações em Aberdeen - USA -, a 29 de Julho de 1947. Foi utilizado até ao dia 2 de O utubro de 1955, data a partir da qual foi desmantelado e algumas das suas peças foram entregues a Smithsonian Institution em Washington, D.C. para exposição pública. Também tradicionalmente se considera que o ENIAC teria sido concebido por John von Neumann e construído segundo a denominada Arquitectura von Neumann.



História da tecnologia

John Napier nasceu em 1550 e morreu em 1617, escocês inventor dos logaritmos, também inventou o Napier, que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.

A primeira máquina de verdade foi construída por Wilhelm Schickard nasceu em 1592 e morreu em 1635, sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal nasceu em 1623 e morreu em 1662 a construção da primeira máquina calculadora, que fazia apenas somas e subtrações.

http://www.alanclements.co.uk/History/MechanicalComputers_files/image001.gif

Pascaline, máquina calculadora feita por Blaise Pascal

A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm Leibniz nasceu em 1646 e morreu 1726, que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.

Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a respeito do que fazer com os números.

História da tecnologia: Charles Babbage

A História da tecnologia tem muito a ver com a origem da idéia de programar uma máquina e vem da necessidade de que as máquinas de tecer produzissem padrões de cores diferentes. Assim, no século XVIII foi criada uma forma de representar os padrões em cartões de papel perfurado, que eram tratados manualmente, Joseph Marie Jacquard nasceu em 1752 e morreu em 1834 ele inventa um tear mecânico, com uma leitora automática de cartões.

http://agmetalminer.com/wp-content/uploads/2009/12/DifferenceEngine_450pxls_011.jpg
Calculador Diferencial criado por Charles Babbage

A ideia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage que nasceu em 1792 e morreu em 1871, um professor de matemática de Cambridge, a desenvolver uma máquina de “tecer números”, uma máquina de calcular onde a forma de calcular pudesse ser controlada por cartões.

Tudo começou com a tentativa de desenvolver uma máquina capaz de calcular polinômios por meio de diferenças, o calculador diferencial. Enquanto projetava seu calculador diferencial, a idéia de Jacquard fez com que Babbage imaginasse uma nova e mais complexa máquina, o calculador analítico, extremamente semelhante ao computador atual.

Sua parte principal seria um conjunto de rodas dentadas, o moinho, formando uma máquina de somar com precisão de cinquenta dígitos. As instruções seriam lidas de cartões perfurados. Os cartões seriam lidos em um dispositivo de entrada e armazenados, para futuras referências, em um banco de mil registradores. Cada um dos registradores seria capaz de armazenar um número de cinquenta dígitos, que poderiam ser colocados lá por meio de cartões a partir do resultado de um dos cálculos do moinho.

Além disso tudo, Charles Babbage imaginou a primeira máquina de impressão, que imprimiria os resultados dos cálculos, contidos nos registradores. Charles Babbage conseguiu, durante algum tempo, fundos para sua pesquisa, porém não conseguiu completar sua máquina no tempo prometido e não recebeu mais dinheiro. Hoje, partes de sua máquina podem ser vistas no Museu Britânico, que também construiu uma versão completa, utilizando as técnicas disponíveis na época.

Junto com Charles Babbage, trabalhou a jovem Ada Augusta, filha do poeta Lord Byron, conhecida como Lady Lovelace e Ada Lovelace. Ada foi a primeira programadora da história, projetando e explicando, a pedido de Babbage, programas para a máquina inexistente. Ada inventou os conceitos de subrotina, uma seqüência de instruções que pode ser usada várias vezes, loop, uma instrução que permite a repetição de uma seqüência de cartões, e do salto condicional, que permite saltar algum cartão caso uma condição seja satisfeita.

Ada Lovelace e Charles Babbage estavam avançados demais para o seu tempo, tanto que até a década de 1940, nada se inventou parecido com seu computador analítico. Até essa época foram construídas muitas máquinas mecânicas de somar destinadas a controlar negócios (principalmente caixas registradoras) e algumas máquinas inspiradas na calculadora diferencial de Babbage, para realizar cálculos de engenharia (que não alcançaram grande sucesso).

História da tecnologia: A máquina de tabular

O próximo avanço dos computadores foi feito pelo americano Herman Hollerith nasceu em 1860 morreu em 1929, que inventou uma máquina capaz de processar dados baseada na separação de cartões perfurados (pelos seus furos). A máquina de Hollerith foi utilizada para auxiliar no censo de 1890, reduzindo o tempo de processamento de dados de sete anos, do censo anterior, para apenas dois anos e meio. Ela foi também pioneira ao utilizar a eletricidade na separação, contagem e tabulação dos cartões.

A empresa fundada por Hollerith é hoje conhecida como International Business Machines, ou IBM.


História da tecnologia: Os primeiros computadores de uso geral

O primeiro computador eletro-mecânico foi construído por Konrad Zuse nasceu em 1910 e morreu em 1995. Em 1936, esse engenheiro alemão construiu, a partir de relês que executavam os cálculos e dados lidos em fitas perfuradas, o Z1. Zuse tentou vender o computador ao governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos americanos de desenvolver seus computadores.

http://neatorama.cachefly.net/images/2009-01/z1-computer.jpgO primeiro computador eletro-mecânico foi construído por Konrad Zuse o Z1


Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A Marinha americana, em conjunto com a Universidade de Harvard, desenvolveu o computador Harvard Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos em três segundos.

Simultaneamente, e em segredo, o Exército Americano desenvolvia um projeto semelhante, chefiado pelos engenheiros J. Presper Eckert e John Mauchy, cujo resultado foi o primeiro computador a válvulas, o Eletronic Numeric Integrator And Calculator ENIAC, capaz de fazer quinhentas multiplicações por segundo. Tendo sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra, quando foi anunciado ao mundo.

http://teeksaphoto.org/Archive/DigitalTimeline/Images/eniac.gif

ENIAC, computador desenvolvido pelo Exército Americano.


No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características:

  1. Codificar as instruções de uma forma possível de ser armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros.
  2. Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa, e
  3. Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo.
Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade e automodificação. Assim, o computador programável que conhecemos hoje, onde o programa e os dados estão armazenados na memória ficou conhecido como Arquitetura de von Neumann.

Para divulgar essa idéia, von Neumann publicou sozinho um artigo. Eckert e Mauchy não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC acabou se dissolvendo em uma chuva de processos, mas já estava criado o computador moderno.


História da tecnologia: O primeiro Computador digital

O Atanasoff-Berry Computer computador eletrônico foi o primeiro do mundo digital. Foi construído por John Vincent Atanasoff e Clifford Berry em Iowa State University, durante 1937-42. Ela integra diversas inovações importantes em computação, incluindo o uso de aritmética binária, memória regenerativa processamento paralelo, ea separação das funções de memória e de computação.

http://www.cs.iastate.edu/jva/images/abc-1942.gif

Computador digital criador por John Vincent Atanasoff e Clifford Berry

História da tecnologia: Quebrar um código alemão, o Enigma


Enigma é usado para embaralhar todas mais alto da Alemanha comunicações secretas. É a cifra de mais avançado já projetado e foi, até agora, o pensamento absoluto.

http://www.etherfeat.com/i/enigma_machine.jpg
Enigma

Em 1938, Turing publicou um artigo intitulado Sobre matemática computacional Números no qual ele apresentou a teoria do chamado Universal Turing Machines, dispositivos mecânicos capaz de ser configurado a fim de resolver qualquer problema matemático imagináveis. Turing usou este conceito engenhoso para criar precisamente configurável grandes máquinas chamadas "bombas", capaz de aplicar a enorme quantidade de esforço matemático necessário para quebrar o código Enigma pela força bruta.

História da tecnologia: Primeiro programa totalmente automático

Konrad Zuse foi o criador do primeiro programa totalmente automático, controlado e livremente programáveis, em aritmética de ponto flutuante binário de trabalho do computador. O Z3 foi terminado em 1941

.http://www.computerhistory.org/timeline/images/1941_zuse_z3_large.jpgPrimeiro programa totalmente automático O Z3



História da tecnologia: Computador totalmente eléctrico (Colossus)


Colossus reduziu o tempo para de semanas para horas. Foi apenas o tempo para a decifração das mensagens que deu a informação vital para Eisenhower e Montgomery antes do Dia-D. Estas mensagens decifradas mostrou que Hitler tinha engolido as campanhas de artifício, o exército fantasma no sul da Inglaterra, os comboios fantasma que se deslocam para leste ao longo do canal; que Hitler estava convencido de que os ataques foram chegando em todo o Pas de Calais, e que ele mantinha divisões Panzer na Bélgica. Depois do dia D da resistência francesa e britânica e americana a Força Aérea bombardeiam e destroem todas as linhas de telefone e de telex no norte da França, obrigou os alemães a utilizar comunicações de rádio e de repente o volume de mensagens interceptadas subiu rapidamente.

http://www.codesandciphers.org.uk/virtualbp/fish/colossus_files/colrakss.jpgComputador totalmente eléctrico (Colossus)


História da tecnologia: Operações de programa armazenado


O Interesse de Von Neumann em computadores diferentes existi por perceber rapidamente a aplicação de computadores para a matemática aplicada, para problemas específicos, em vez da sua mera aplicação para o desenvolvimento de tabelas. Durante a guerra, a perícia de Von Neumann na hidrodinâmica, balística, meteorologia, teoria dos jogos, e estatísticas, foi usada em vários projetos. Este trabalho levou a considerar o uso de dispositivos mecânicos de cálculo, e, embora as histórias sobre Von Neumann implica que seu encontro com o primeiro computador foi o ENIAC, na verdade ele estava com Howard Aiken em Harvard Mark I (ASCC) calculadora.

http://ysfine.com/wigner/neum/vnc01.jpgVon Neumann

História da tecnologia: Computador baseado em reles Mark 1


O Mark I foi construído a partir de comutadores, relés, eixos de rotação e embreagens, e foi descrito como soar como uma sala cheia "de senhoras tricotando". A máquina continha mais de 750.000 componentes, foi de 50 metros de comprimento, 8 metros de altura e pesava cerca de 5 toneladas!

http://www.supinfo-projects.com/2006/hist_ordi/2/hist-mark1.jpg
Computador baseado em reles Mark 1

História da tecnologia: Transistor

William Shockley e Walter Brattain ambos tinham sido trabalhar com semicondutores desde o início dos anos 1930, e em 1939, Shockley teve uma idéia, para usar um pedaço de tela de cobre em um pedaço de material semicondutor. Embora esse experimento em particular tenha fracassado, em 1940, Russell Ohl acidentalmente descobre a junção PN de silício no Bell Labs.

http://archive.computerhistory.org/resources/physical-object/mullard/X278-83C.lg.jpg



Transistor


História da tecnologia: Computador UNIVAC 1


O primeiro computador UNIVAC foi entregue ao Censo em junho de 1951. Ao contrário do ENIAC, o UNIVAC processado cada dígito em série. Mas a sua velocidade muito maior que lhe permitiu somar dois números de dez dígitos, a uma taxa de quase 100.000 adições por segundo. Internamente, o UNIVAC operado a uma freqüência de clock de 2,25 MHz, que não foi tarefa fácil para os circuitos de tubos de vácuo. O UNIVAC empregado também demora mercúrio memórias linha. Linhas de atraso não permitir que o computador para acessar imediatamente qualquer item de dados, realizada em sua memória, mas dada a problemas de confiabilidade da alternativa tubo de raios catódicos (CRT) de tecnologia, esta era uma boa opção técnica.

http://www.info-ab.uclm.es/labelec/solar/elementos_del_pc/Microprocesadores(2005)/Archivos/UNIVAC-1.jpgComputador UNIVAC 1


História da tecnologia: Computador transistorizados

Tom Watson, Jr., levou a IBM introduzir o modelo de computadores 604, o primeiro com transistores, que se tornou a base do modelo 608, de 1957, é o primeiro computador sólido para o mercado comercial. Transistores eram caros por serem recem inventados, em primeiro momento, custou US $ 8 vs 75dólarespara um tubo de vácuo.

http://archive.computerhistory.org/resources/still-image/ibm/IBM_Card_Computing/IBM.CardComputing.19xx.102645462.lg.jpgComputador 604 IBM


História da tecnologia: TRADIC um computador totalmente transistorizado


TRADIC representa TRAnisitor Digital Computer, e como o nome sugere, esta foi a primeira máquina a utilizar todos os transistores e diodos e não tubos de vácuo. Foi construído pela Bell Labs para a força aerea dos Estados Unidos, que estava interessado na natureza leve, como um computador para utilização aeronáutica. A máquina consistia de 700 pontos de contato com transistores e diodos de germânio 10.000. Durante dois anos de funcionamento contínuo, somente 17 destes dispositivos falharam, uma taxa de insucesso muito menor do que máquinas de tubo de vácuo do tempo.

http://library.thinkquest.org/18268/Good%20gifs/1955-tradic.gif
TRADIC um computador totalmente transistorizado



História da tecnologia: Circuito integrado

Era um aparelho relativamente simples que Jack Kilby mostrou a um grupo de colegas de trabalho, se reuniram no laboratório de TI de semicondutores há mais de 40 anos - apenas um transistor e outros componentes em uma fatia de germânio. Mal sabia este grupo de curiosos que a invenção de Kilby, 7/16-by-1/16 é chamado de circuito integrado, eles estavam prestes a revolucionar a indústria eletrônica.

http://regmedia.co.uk/2005/06/21/ic_large.jpgCircuito integrado Kilby, 7/16-by-1/16


Historia da tecnologia: Modem

Inventado pela Bell Labs, os esforços de desenvolvimento dos primeiros modems digitais parecem ter se originado a partir da necessidade de transmitir dados para a defesa aérea norte-americana durante a década de 1950.

First modem

Primeiro modem inventado pela Bell Labs

História da tecnologia

O primeiro computador eletromecânico foi inventado em 1936 por KONRAD ZUSE

Em 1943 durante a II guerra mindial foi desenvolvido o ENIAC que pesava 30 toneladas e tinha 5;5 metros de altura,25 metros de comprimento e 70 mil resistores e 17.468 válvulas.

eniac1

A história da tecnologia começou a ganhar forma com o primeiro computador digital eletrônico de grande escala: o ENIAC (Electrical Numerical Integrator and Calculator). O computador foi criado em fevereiro de 1946 pelos cientistas norte-americanos John Presper Eckert e John W. Mauchly, da Electronic Control Company.

Acima você pode ver uma imagem do primeiro computador do mundo, que ocupava uma sala toda, cheio de fios e aparelhos, já com o avanço da tecnologia, hoje existe até mesmo computador de mão.

Na época, o ENIAC se destacou por realizar 5 mil operações por segundo, velocidade mil vezes superior à de seus antecessores. Hoje, se comparado com os computadores atuais, o poder de processamento do ENIAC seria menor do que o de uma simples calculadora de bolso. O computador começou a ser feito em 1943, durante a Segunda Guerra Mundial, para auxiliar o exército norte-americano a fazer cálculos de balística. O computador pesava 30 toneladas e ocupava 180 m² de área construída.

ENIAC (Electronic Numerical Integrator and Computer), uma concepçao do Professor John Mauchly, conjuntamente com o professor J. Presper Eckert.
Mauchly e o Eckert propuseram em 1943 ao exército norte-americano, em plena II Guerra Mundial, a construçao deste primeiro computador, tendo como objectivo o auxilio nos cálculos de precisao necessários para a balística. Foi anunciada a sua conclusao em 14 de Fevereiro de 1946 e foi patenteado em 26 de Junho de 1947 com o registo n.o 3,120,606.

Diposiçao em U da sala do ENIAC

O ENIAC (Electronic Numerical Integrator and Computer) preenchia esta sala, incomparável com os miniaturizados e mais potentes computadores actuais.

Equipa que construiu o ENIAC

J. Presper Eckert, Jr.; Professor J. G. Brainerd; Sam Feltman; Captain H. H. Goldstine; Dr. J. W. Mauchly; Dean Harold Pender; General G. M. Barnes; Colonel Paul N. Gillon.










O ENIAC era uma grande máquina para efectuar cálculos e baseava a sua estrutura nos avanços científicos já anteriormente desenvolvidos, como as sofisticadas máquinas de cálculos matemáticos de Charles Babage, as calculadoras mecânicas de Blaise Pascal, Leibniz e Charles Xavier Thomas, nas relés electromagnéticas, nas válvulas e nas máquinas perfuradoras de cartoes. Uma válvula é, de forma simples, um tubo metálico de meia polegada, selado em vácuo dentro de um tubo de vidro, onde uma corrente de electroes pode passar entre os eléctrodos. Os tubos de vácuo foram fundamentais para o desenvolvimento da rádio, televisao e gravaçao de sons. Eram também peças grandes e muito frágeis que tinham uma grande perda de energia por calor.

Pormenor do ENIAC - o primeiro computador
O ENIAC foi construído com 17 468 tubos de vácuo, 70 000 resistencias, 10 000 condensadores, 1 500 relés e 6 000 interruptores.

O ENIAC pesava 30 toneladas, consumia 200 000 watts de potencia e ocupava várias salas. Quando em operaçao produzia tanto calor que necessitava de um sistema de ar forçado para arrefecimento. Era tao grande que tinha de ser disposto em U com tres painéis sobre rodas, para que os operadores se pudessem mover a volta dele.

Um dos gigantes paíneis laterais do ENIAC

Quando em operaçao, os complexos cálculos de balística passaram a realizar–se nuns alucinantes 30 segundos, quando com as calculadoras manuais que até aí se usavam demorava12 horas até se obter o mesmo resultado.

O centro de processamento tinha uma estrutura muito simular a dos processadores mais básicos que actualmente utilizamos nas nossas calculadoras de bolso. Tinha 20 registos de dez dígitos cada, onde se podiam efectuar somas, subtracçoes, multiplicaçoes, divisoes e raízes quadradas.

As programadoras do ENIAC

O ENIAC era programado através de milhares de interruptores, podendo cada um dele assumir o valor 1 ou 0 consoante o interruptor estava ligado ou desligado.
Para o programar era necessário uma grande quantidade de pessoas que percorriam as longas filas de interruptores dando ao ENIAC as instruçoes necessárias para computar, ou seja, calcular.
Existia uma equipa de 80 mulheres na Universidade da Pensilvânia cuja funçao era calcular manualmente as equaçoes diferenciais necessárias para os cálculos de balística. O exército chamava a funçao destas pessoas: computadores.

Quando o ENIAC ficou pronto 6 mulheres computador foram escolhidas para testarem a nova máquina.

Pormenor da sala do ENIAC
Versao modernizada do ENIAC

Curiosamente, o termo deixou de estar associado as pessoas que operavam a máquina para dar nome a máquina propriamente dita, uma vez que de facto a máquina passou a realizar as contas que antes eram realizadas por essas pessoas.

O ENIAC torna-se obsoleto e economicamente inviável de manter após 10 anos de operaçao, tendo sido desmontado. Hoje encontram-se peças do ENIAC por muitos museus do mundo, incluindo o Smithsonian em Washington D.C. e no local preciso onde foi construído, na Moore School for Electrical Engineering da Universidade da Pensilvânia.

O ENIAC serviu de inspiraçao para muitos outros computadores que se seguiram como: o EDVAC (Electronic Discrete Variable Computer); o ORDVAC (Ordnance Variable Automatic Computer; SEAC (Standards Automatic Computer) e o UNIVAC, este último também construído por Eckert e Mauchly para o processamento dos dados dos censos da populaçao americana.

Em 1955, um computador já só pesava 3 toneladas e consumia 50 kwatts de potencia, tendo um custo de $200 000. Uma máquina destas podia realizar 50 multiplicaçoes por segundo. Assim, os primeiros computadores eram também eles máquinas que só estavam ao alcance de grandes empresas ou instituiçoes que tinham necessidades de cálculo muito exigentes e que possuíam as condiçoes económicas para tao grande investimento.

Com o rápido desenvolvimento dos transístores entre 1952 e 1960, os tubos de vácuo tornaram-se obsoletos e foi este avanço tecnológico que permitiu a criaçao de máquinas muito mais rápidas, mais pequenas e mais baratas.

Com o tempo, os transístores passaram a ser a base da electrónica, seguindo-se a VLSI (Very Large Scale Integration), ou seja, a construçao de circuitos cada vez mais pequenos por forma a que possam ser mais leves e dispender menos energia, por terem menos superfície para a dissipaçao de energia por calor. Esta miniaturizaçao permitiu que se tivesse a mesma capacidade de cálculo de um ENIAC na palma de uma mao. A diminuiçao do tamanho fez também diminuir a quantidade de energia necessária e o custo caiu com a produçao em série dos novos processadores.

Em 1977 uma calculadora manual pesava menos de meio quilo e consumia meio watt e podia realizar 250 multiplicaçoes por segundo, custando $300.
Hoje uma calculadora pesa poucos gramas podendo ser incorporada em réguas ou agendas, funciona até a energia solar e custa menos de $5.

Um Pentium a 150Mhz é capaz de realizar 300 milhoes de somas por segundo, enquanto o ENIAC apenas conseguia realizar 5 000. A memória do ENIAC apenas permitia guardar 200 bits, enquanto qualquer computador tem pelo menos 128 Mbytes, ou seja, 1 073 741 824 bits.

Nos meados da década de 70 os computadores começaram a ter preços cada vez mais acessíveis. Em 1981 a IBM lançou no mercado o PC (Personal Computer).

O PC distinguia-se das máquinas existentes até entao por estar dirigido a utilizadores individuais que poderiam passar a ter na sua secretária uma máquina para uso exclusivo, quando até aí esse conceito nao existia... Os computadores eram mainframe, centralizados, e os utilizadores tinham apenas um monitor e um teclado sendo todo o processamento realizado no servidor.

O PC tinha ainda outra característica que o tornou revolucionário que era o facto de ter uma arquitectura aberta, ou seja, qualquer fabricante poderia criar peças adaptáveis aquela máquina dando-lhe uma funcionalidade mais especializada, o que até aí era sempre privilégio reservado para o fabricante do computador. Assim o PC passou a ser o standard de facto na indústria.

Uma regra estatística que se tem verificado desde a invençao do primeiro computador é a Lei de Moore que diz: “A cada 18 a 24 meses é lançada uma nova tecnologia que permite que os computadores dupliquem o desempenho”.

Isto significa que em 2010 os processadores terão a velocidade de 50Ghz e em 2020 terão uma velocidade de 2000Ghz. Para os menos conhecedores desta área, os melhores computadores actuais (Novembro/2004) funcionam a 3,2Ghz... O desempenho dos computadores não se mede somente pela velocidade do processador, mas este exemplo simplista torna mais clara a evolução futura previsível.



APLLE COMPUTER:

Em 1976 foi criado o primeiro computador pessoal por STEVE JOBS e STEVE WOZNIACK


apple-i

Em 1985 nasceu o MACINTOSH:

Com o conceito DTP(DESKTOP PUBLISHING) juntando as idéias de STEVE JOBS com as de GUTENBERG em 1440

primeiro macintosh


Theodor Nelson:

Theodor Nelson filósofo e sociólogo dos EUA, nascido em 1937, que inventou os termos hiperlink e hipermídia em 1963.

ted nelson



THEODOR NELSON criou o projeto XANADU em 1960, com o objetivo de criar uma rede de computadores de interface simples. A diferença de uma interface de texto e uma interface gráfica. O link é o elo de ligação que faz com que a hipermídia funcione, e sua função é promover a inter-relação entre os conteúdos.



História da tecnologia: O que é uma interface

”interface é o ponto de contato homem-maquína, onde tudo acontece.

interface


A história da interface gráfica:

Desenvolvida em 1960 por pesquisadores do Instituto de Pesquisa de Stansford através de um sistema baseado em ponteiros chamado SKETCHPAD, e que na década de 70 foi desenvolvido pela XEROX PARC, usam interface que vai além da interface de texto, chamado interface gráfica, o primeiro computador a usar uma interface grafica foi o XEROX ALTO

xerox_alto


Microsoft entrou no mercado:

Em 1981 com o lançamento do Windows 1.0, em 1984 a APLLE lançou o Macintosh,,em 1985 foi lançado o AMIGA ,com uma interface chamada Workbench.

amiga5001

Apartir de então a Microsoft e a Aplle vem dominando o mercado de computadores. microsoft criou o Windows Seven (7) e o ultimo lançamento da Aplle foram o System 7 e o Mac OSx.

















:: Introdução ::

A origem dos teclados de hoje em dia veio da invenção da máquina de escrever criada por Christopher Latham Sholes em setembro de 1867. A máquina de escrever foi patenteada no ano seguinte. Começou a ser fabricada pela Remington Company em 1877. No começo do século vinte a máquina de escrever entrou no mundo dos negócios.

Christopher Latham Sholes


:: História do teclado ::


Diversos dispositivos que imprimiam dados alfanuméricos eram usados no começo do século vinte. Fitas de papeis perfurados foram testados usando o telégrafo antes de 1881. O código Morse sonoro foi usado até meados de 1917 quando os circuitos principais, especialmente aqueles que usavam cabos como a API e a UPI foram convertidos para usar impressoras mecânicas. Sistemas de cartões perfurados, que eram usados a muitos anos para controlar máquinas de confeccionar, além disso começaram a criar empregos para as pessoas que guardavam os dados com as máquinas de tabulação.

TelegráfoNo século vinte a máquina de teletipo se uniu com a máquina de escrever, onde resultou em um nova forma de comunicação telegrafica, em 1930. Inicialmente essas máquinas imprimiam em uma fita de papel estreita, mas no final dos anos 30 papeis maiores poderiam ser usados. A tecnologia de cartões perfurados criada em 1881 ajudou a criar a guardar mensagens e depois poderiam ler de novo com um leitor mecânico.


Sistemas de cartões perfurados similares foram ligados a máquinas de escrever como teclados, isso facilitava a entrada de dados numéricos. Desta maneira o sistema de cartão perfurado, junto com as perfuradoras, eram a base das máquinas de calcular que a IBM estava vendendo a mais de um milhão de unidades em 1931. Deste modo o que predominou na segunda guerra foram essas tecnologias.

A segunda grande guerra ajudou na criação de computadores para quebrar códigos de mensagens crptografadas de guerra fazendo cálculos realmente rápidos para sua época. Mesmo antes da guerra algumas companhias como a Bell Laboratories começavam a trabalhar com computadores. Em setembro de 1940 G.R. Stibitiz demonstrou o MODEL 1 que utilizava uma entrada de teclado do teletipo. Essa demonstração foi única porque foi feita através de linhas telefônicas, algo que não seria repetido por mais de uma década.

Clique para Maximizar
O famoso
ENIAC
Entretanto o próximo marco milionário foi o desenvolvimento do computador ENIAC em 1946. Esse computador utilizava um leitor de cartão perfurado que era lido pelo ENIAC. Essa máquina foi seguida pelo BINAC em 1948 que utilizava um teclado de máquina de escrever que escrevia dados diretamente nas fitas magnéticas. A fita era lida pelo ENIAC e os cálculos eram feitos e depois os dados saiam em uma máquina de escrever eletromecânica. Esses modos de operação eram conhecidos como modo de grupo, onde as coisas eram feitas uma de cada vez.

Os anos 50 viram o começo da comercialização do computador. Computadores como o UNIVAC tinham um teclado que era usado para controlar o console, mas antes eles eram apenas para calcular números de maneira mais fácil.
A entrada de dados era completa via modo de grupo, predominantemente com o uso dos cartões perfurados. A saída de dados era feita via linhas de impressão como uso da máquina de escrever para maior rapidez. O desenvolvimento comercial das máquinas de escrever eletromecânicas semelhante a IBM Selectric, contribuiu para a comercialização desses main frames que eram bem mais “fáceis” de se mexer do que os computadores antigos como o ENIAC. Esse foi um fator que fez a diferença para a comercialização dos main frames.



:: Surgimento do VDT ::


Mais tarde o modo de grupo foi comercializado pelas as universidades como a MIT que começou a experimentar sistema multi usuários, conhecido como a era de compartilhar sistemas, onde cada usuário poderia compartilhar simultaneamente recursos de seus terminais de teletipo. O experimentos antecederam esses começaram no final dos anos 50. Em 1964, a MIT, Bell Laboratories e a General Eletric desenvolveram um tipo de sistema compartilhado chamado de MULTICS. O desenvolvimento dos sistemas compartilhados criaram uma nova necessidade de se fazer uma interface melhor do que a atrapalhada interface do velho teletipo. Com isso a desenvolvimento de vídeo terminais ( VDT de vídeo display terminals)aumentaram cada vez mais no final dos anos 60. O VDT juntou a capacidade das máquinas de escrever com de se escrever na tela de uma tv, esses foram os primeiros teclados sem ter que usar a imprissão em algum papel, eles apareciam direto na tela, e assim fazendo o trabalho muito mais rápido.

Mais tarde em 1967 Control Data e Sanders estavam produzindo VDT’s. Harris estava vendendo eles em 1969,e a Hewlett Packard (HP) em 1972. Com o desenvolvimento do VDT usado em cooperação com o compartilhamento entre computadores respresentou uma grande mudança para a utilização do teclado como um dispositivo de entrada. Antes do advento do VDT, os teclados usados para acessar teletipos. Essas máquinas tinham a inerente limitação de velocidade por causa do mecanismo eletromecânico. O VDT não tinha nenhuma limitação quanto a isso. Os interruptores ligados nas teclas mandavam impulsos elétricos diretamente para os computadores, onde não havia envolvimento mecânico que era sinônimo de lentidão. A única limitação do VDT era a velocidade com que ela era escrita na tela, que no começo era relativamente lenta para a capacidade humana de digitar. Mas isso tudo mudará com a revolução do computador pessoal.

Quase que simultaneamente com a comercialização do sistema de multi usuário no fim dos anos 60 foi introduzido os minicomputadores pela companhias como a Data General, Prime Computer, Hewlett Packard e outras. Esses computadores eram pequenos e geralmente utilizavam o console de máquina de escrever. Eles se tornaram mais populares durante os anos 70, onde a interface de máquina de escrever foi abandonada a favor da tecnologia VDT para essas pequenas máquinas.

Os anos 70 viram a rápida expansão do main frame e do sistema de compartilhamento nas universidades e companhias privadas. Esses sistemas eram utilizados via modo de grupo para main frames, ou por VDT para sistemas de compartilhamento. No final dos 70 e começo dos 80 de qualquer modo o uso de cartões perfurados parou quando a IBM, com o sucesso no comercio dos main frames, trocou todas as antigas máquinas por main frames. Foi ai que o VDT alcançou o paradigma do domínio da interface dos computadores.

No final dos anos 70 o uso dos computadores expandiu significantemente porém ainda continuava sendo as universidades e grandes empresas que gastavam com essas máquinas pesadas. A expansão dos mini computadores contudo foi graças a um certo hobby que alguns universitários tinham de fazer computadores por eles mesmo. Assim muitos computadores vieram dessa época onde era “fácil” montar computadores caseiros Clique para Maximizar

:: QWERTY ::


A rápida expansão dos computadores não ajudou na prevenção das doenças que os teclados causariam nas pessoas por movimento repetitivo. Quando em 1984 a IBM lançou o PC/AT ele bem popular e qualquer pessoa conseguia digitar nele, o grande problema foi esse, quase que uma epidemia de pessoas com problemas nos braços por movimentos repetitivos

QWERTY Uma emissão que ainda não havia sido mencionada era o layout do teclado. A industria de layout de teclados padrões possuía um monopólio virtual nos computadores. O QWERTY(olhe no seu teclado e veja essas teclas), é diferente de quando foi criado o teclado em 1880, o de antigamente era para se usar apenas com dois dedos e esse novo design é feito para se usar os dez dedos. E com isso os problemas de movimentos repetitivos pioraram drasticamente.
Outros layouts de teclado existiram. O mais notável foi um que se chamava Dvorak, esse nome veio de seu inventor o August Dvorak que era pesquisador ergonomista na universidade de Washigton. Em 1936 ele analizou a língua inglesa e viu quais eram as letras mais usadas mais freqüentemente.
Layout de Dvorak
Então ele reorganizou as teclas no teclado na caixa alta deixando as mais usadas em cima, e em baixo ele colocava as letras mais usadas depois das de cima e por ai vai. Infelizmente esse layout não pegou, tudo porque ele era menos eficiente que o outro. O layout QWERTY se tornou de fato o padrão, e ele é o mesmo que se usava a um século atrás, isto porque os fabricantes não queriam que os que já sabiam digitar nas máquinas de escrever tivessem que reaprender a digitar.


Com essa ascensão do teclado no uso com o VDT surgiram outros dispositivos que ajudariam muito os usuários de computador. Os dispositivos de ponteiros(dispositivos que selecionasse alguma localização no VDT), o famoso mouse, inventado em 1968 por Douglas Engelbart. O mouse não foi o primeiro dispositivo de ponteiro inventado. Canetas óticas, que usavam um censor de luz para mandar sinais para o computador e mover o ponteiro.

Clique para maximizar Com a introdução do Macintosh no meio dos anos 80 pela Apple, começou a fazer computadores já terem o mouse como padrão quando adquiridos. O Macintosh foi o primeiro computador feito em grande escala com recursos gráficos usando o mouse..Antes do Macintosh os PC IBM usavam linhas de instrução para executar comandos, com o surgimento do Macintosh o usuário não precisaria mais decorar linhas de comando para executar os programas, e isto prova que não foi o Windows o primeiro sistema operacional que usava ponteiros.


E o tempo passou, e ainda temos QWERTY como o padrão de teclados no mundo. Mas no futuro os computadores não terão mais teclado, será por reconhecimento de voz, e tudo que se fala será “digitado” na tela. Enquanto esse tempo não chega teremos os problemas de

A história secreta dos computadores

Publicado em 05/11/2009 – 19:10
por Carlos Morimoto

Embora os eletrônicos sejam uma tecnologia relativamente recente, com menos de um século, a história dos computadores começou muito antes.

Em 1901 um estranho artefato de bronze foi encontrado no meio dos destroços de um antigo navio romano que naufragou próximo à costa da Grécia. Ele era um pouco maior que uma caixa de sapatos e aparentava ter partes móveis, mas a oxidação transformou tudo em uma peça só, o que tornou a identificação quase impossível:

computadores_html_76b850dd

Em 2006 foi descoberto que ele era na verdade um computador mecânico, destinado a calcular o movimento dos astros e prever eclipses, cujas engrenagens competiam em sofisticação com o trabalho de relojoeiros da era moderna.

Até mesmo os Astecas (que sequer usavam ferramentas de metal) desenvolveram máquinas de calcular destinadas a calcular impostos, que eram baseadas em cordas e polias. Infelizmente não se sabe muito sobre o funcionamento delas, já que elas foram todas destruídas pelo colonizadores espanhóis, que viriam a entender a utilidade das calculadoras apenas alguns séculos depois…

No século 19, o matemático inglês Charles Babbage trabalhou na "Analytical Engine", que, caso tivesse sido realmente construída, poderia ter sido o primeiro computador moderno.

Embora fosse inteiramente baseada no uso de engrenagens, ela seria alimentada através de cartões perfurados (que viriam a ser a mídia básica de armazenamento de dados durante asdécadas de 50, 60 e 70), teria memória para 1000 números de 50 dígitos decimais cada um (equivalente a pouco mais de 20 KB no total) e seria capaz de executar operações matemáticas com uma complexidade bem maior que a dos primeiros computadores digitais, (embora em uma velocidade mais baixa, devido à natureza mecânica). Como se não bastasse, os resultados seriam impressos em papel (usando um sistema similar ao das máquinas de datilografar), antecipando o uso das impressoras.

É bem provável que a Analytical Engine pudesse ter sido realmente construída usando tecnologia da época. Entretanto, o custo seria enorme e o governo Inglês (a única organização com poder suficiente para financiar o desenvolvimento na época) não se mostrou muito interessado no projeto.

Entretanto, uma versão mais simples do projeto, a "Difference Engine" foi realmente construída por uma equipe do Museu de Londres, que se baseou nos projetos de Babbage. Apesar do atraso de mais de um século, ela funcionou como esperado:

computadores_html_685ddedd

Outros projetos de calculadoras mecânicas mais simples foram muito usados ao longo do século 19 e na primeira metade do século 20. O ápice da evolução foi a Curta, uma calculadora mecânica portátil lançada em 1948. Ela é capaz de realizar operações de soma, subtração, multiplicação, divisão e basicamente qualquer outro tipo de operação matemática a partir de combinações de operações simples (potenciação, raiz quadrada, etc.), tudo isso em um dispositivo inteiramente mecânico, do tamanho de um saleiro:

computadores_html_m667b7a72

A Curta foi bastante popular durante as décadas de 50, 60 e 70 (foram produzidas nada menos de 140.000 unidades, vendidas principalmente nos EUA e na Alemanha), e o formato, combinado com o barulho característico ao girar a manivela para executar as operações rendeu o apelido de "moedor de pimenta". Ela era usada por engenheiros, pilotos, matemáticos e muitas universidades as usavam nas cadeiras de cálculos.

A curta era composta por um total de 605 peças e usava um sistema bastante engenhoso, onde você inseria o número através de um conjunto de 8 chaves laterais (uma para cada dígito decimal), selecionava a operação usando uma chave lateral e executava o cálculo girando a manivela superior, uma vez para cada operação (para multiplicar um número por 4, por exemplo, você a giraria 4 vezes).

Para operações com valores maiores (como multiplicar 57456567 por 998) existia um segundo contador na parte superior, que servia como um multiplicador de rotações (1, 10, 100, 1000, etc.). Com isso, em vez de girar 998 vezes, você selecionaria o número 4 (multiplicador 1000), giraria uma vez para inserir o valor, mudaria o contador de volta para o 1, colocaria a chave de operação na posição de subtração, giraria a manivela mais duas vezes para reduzir até o 998, moveria a chave de operação de volta à posição original e giraria a manivela mais uma vez para executar a operação.

Os resultados eram exibidos através de um visor na parte superior, que tinha capacidade para 15 dígitos (as calculadoras de bolso atuais trabalham com apenas 8 dígitos!) e, embora fosse complicada de usar em relação a uma calculadora atual, era bastante confiável e usuários experientes eram capazes de executar cálculos com uma velocidade impressionante.

Como se não bastasse, em 1953 foi lançada a Curta Type II, uma versão maior, que permitia inserir números de até 11 dígitos e exibia resultados com até 15 dígitos.

Se ficou curioso, você pode encontrar um simulador em flash que simula uma Curta Type I noVcalc. Outro simulador interessante é o YACS, onde você pode ver um modelo em 3D das engrenagens. Você encontra também algumas fotos reais de uma Curta desmontada aqui.

computadores_html_42684fa1

Mesmo com a introdução das calculadoras eletrônicas, a Curta continuou sendo usada por muitos, já que era muito mais leve e era capaz de trabalhar com números de até 15 dígitos. Pesquisando no Ebay, é possível encontrar algumas unidades funcionais da Curta à venda mesmo nos dias de hoje.

Apesar de impressionarem pela engenhosidade, calculadoras mecânicas como a Curta e computadores mecânicos como a Analytical Engine acabaram se revelando um beco sem saída, já que as engrenagens precisam ser fabricadas individualmente e existe um limite para o nível de miniaturização e para o número de componentes. Uma Curta não pode ir muito além das operações básicas e a Analytical Engine custaria o equivalente ao PIB de um pequeno país para ser construída. Uma nova tecnologia era necessária e ela acabou se materializando na forma dos circuitos digitais.

No final do século XIX, surgiu o relê, um dispositivo eletromecânico, formado por um magneto móvel, que se deslocava unindo dois contatos metálicos. O relê foi muito usado no sistema telefônico, no tempo das centrais analógicas. Nas localidades mais remotas, algumas continuam em atividade até os dias de hoje.

computadores_html_m46c9f6da

Os relês podem ser considerados como uma espécie de antepassados dos transístores. Suas limitações eram o fato de serem relativamente caros, grandes demais e, ao mesmo tempo, muito lentos: um relê demora mais de um milésimo de segundo para fechar um circuito.

Apesar disso, os relês são usados até hoje em alguns dispositivos. Um exemplo são os modems discados, onde o relê é usado para ativar o uso da linha telefônica, ao discar. Eles são usados também em estabilizadores (geralmente nos modelos de baixo custo), onde são os responsáveis pelos "clicks" que você ouve durante as variações de tensão.

O fato de usar relês e fazer barulho, não é um indício de qualidade (muito pelo contrário), mas infelizmente muitas pessoas associam isso com o fato do aparelho estar funcionando, o que faz com que produtos de baixa qualidade continuem sendo produzidos e vendidos.

Voltando à história, também no final do século XIX, surgiram as primeiras válvulas. As válvulas foram usadas para criar os primeiros computadores eletrônicos, na década de 40.

As válvulas têm seu funcionamento baseado no fluxo de elétrons no vácuo. Tudo começou numa certa tarde quando Thomas Edson, inventor da lâmpada elétrica, estava brincando com a sua invenção. Ele percebeu que, ao ligar a lâmpada ao polo positivo de uma bateria e uma placa metálica ao polo negativo, era possível medir uma certa corrente fluindo do filamento da lâmpada até a chapa metálica, mesmo que não existisse contato entre eles. Havia sido descoberto o efeito termoiônico, o princípio de funcionamento das válvulas.

As válvulas já eram bem mais rápidas que os relês, atingiam frequências de alguns megahertz, o problema é que esquentavam demais, consumiam muita eletricidade e se queimavam com facilidade. Era fácil usar válvulas em rádios, que utilizavam poucas, mas construir um computador, que usava milhares delas era extremamente complicado e caro.

computadores_html_6c75dfb5

Apesar de tudo isso, os primeiros computadores surgiram durante a década de 40, naturalmente com propósitos militares. Os principais usos eram a codificação e a decodificação de mensagens e cálculos de artilharia.

Durante a década de 1940 e início da de 1950, a maior parte da indústria continuou trabalhando no aperfeiçoamento das válvulas, obtendo modelos menores e mais confiáveis. Porém, vários pesquisadores, começaram a procurar alternativas menos problemáticas.

Várias dessas pesquisas tinham como objetivo o estudo de novos materiais, tanto condutores quanto isolantes. Os pesquisadores começaram então a descobrir que alguns materiais não se enquadravam nem em um grupo nem em outro, pois, de acordo com a circunstância, podiam atuar tanto como isolantes quanto como condutores, formando uma espécie de grupo intermediário que foi logo apelidado de grupo dos semicondutores.
Haviam encontrado a chave para desenvolver o transístor. O primeiro protótipo surgiu em 16 de dezembro de 1947, consistindo em um pequeno bloco de germânio (que na época era junto com o silício o semicondutor mais pesquisado) e três filamentos de ouro. Um filamento era o polo positivo, o outro, o polo negativo, enquanto o terceiro tinha a função de controle.

computadores_html_m63f651f5

Tendo apenas uma carga elétrica no polo positivo, nada acontecia: o germânio atuava como um isolante, bloqueando a corrente. Porém, quando uma certa tensão elétrica era aplicada usando o filamento de controle, um fenômeno acontecia e a carga elétrica passava a fluir para o polo negativo. Haviam criado um dispositivo que substituía a válvula, que não possuía partes móveis, gastava uma fração da eletricidade e, ao mesmo tempo, era muito mais rápido.

O primeiro transístor era muito grande, mas não demorou muito para que esse modelo inicial fosse aperfeiçoado. Durante a década de 1950, o transístor foi aperfeiçoado e passou a gradualmente dominar a indústria, substituindo rapidamente as problemáticas válvulas. Os modelos foram diminuindo de tamanho, caindo de preço e tornando-se mais rápidos. Alguns transístores da época podiam operar a até 100 MHz. Claro que essa era a frequência que podia ser alcançada por um transístor sozinho, nos computadores da época, a frequência de operação era muito menor, já que em cada ciclo de processamento o sinal precisa passar por vários transístores.

O grande salto foi a substituição do germânio pelo silício. Isso permitiu miniaturizar ainda mais os transístores e baixar seu custo de produção. Os primeiros transístores de junção comerciais (já similares aos atuais) foram produzidos a partir de 1960 pela Crystalonics, decretando o final da era das válvulas.

A mudança de estado de um transístor é feita através de uma corrente elétrica. Cada mudança de estado pode então comandar a mudança de estado de vários outros transístores ligados ao primeiro, permitindo o processamento de dados. Num transístor essa mudança de estado pode ser feita bilhões de vezes por segundo, porém, a cada mudança de estado é consumida uma certa quantidade de eletricidade, que é transformada em calor. É por isso que quanto mais rápidos tornam-se os processadores, mais eles se aquecem e mais energia consomem.

Um 386, por exemplo, consumia pouco mais de 1 watt de energia e podia funcionar sem nenhum tipo de resfriamento. Um 486DX-4 100 consumia cerca de 5 watts e precisava de um cooler simples, enquanto um Athlon X2 chega a consumir 89 watts de energia (no X2 5600+) e precisa de no mínimo um bom cooler para funcionar bem. Em compensação, a versão mais rápida do 386 operava a apenas 40 MHz, enquanto os processadores atuais já superaram a barreira dos 3.0 GHz.

O salto final aconteceu quando descobriu-se que era possível construir vários transístores sobre o mesmo wafer de silício. Isso permitiu diminuir de forma gritante o custo e tamanho dos computadores. Entramos então na era do microchip.

O primeiro microchip comercial foi lançado pela Intel em 1971 e chamava-se 4004. Como o nome sugere, ele era um processador que utilizava um barramento de dados de apenas 4 bits, incrivelmente lento para os padrões atuais.

Apesar disso, ele internamente processava instruções de 8 bits, o que permitia que ele realizasse operações aritméticas relativamente complexas, apesar do baixo desempenho. A frequência máxima de operação do 4004 era de apenas 740 kHz (ou seja, apenas 740 mil ciclos por segundo) e cada instrução demorava 8 ciclos para ser executada (3 ciclos para carregar os endereços, 2 ciclos para carregar a instrução e mais 3 ciclos para finalmente processá-la), o que fazia com que o 4004 não fosse capaz de processar mais do que 92.500 instruções por segundo.

Em compensação. ele era um chip bastante simples, que era composto por apenas 2300 transístores. Pode parecer piada que cada um deles media 10 micra (10.000 nanômetros, contra os 32 ou 45 nanômetros nos processadores atuais), mas na época ele foi um grande feito de engenharia:

computadores_html_m79a170ae

Embora fosse muito limitado, ele foi muito usado em calculadoras, área em que representou uma pequena revolução. Ele foi também usado em diversos equipamentos científicos e até mesmo na sonda Pioneer 10, lançada pela NASA em 1972. Ela foi a primeira a explorar o sistema solar e continuou se comunicar com a Terra até 1998, quando a distância se tornou grande demais para que os sinais enviados pela sonda fossem captados.

Mais importante do que todos os feitos do pequeno chip, o sucesso do 4004 mostrou a outras empresas que os microchips eram viáveis, criando uma verdadeira corrida evolucionária, em busca de processadores mais rápidos e avançados, que potencializou todo o avanço tecnológico que tivemos desde então.

movimentos repetitivos por uso dos teclados QWERTY.


















Um pouco da história dos Computadores


A Primeira Geração

J.P. Eckert e John Mauchly, da Universidade da Pensilvânia, inauguraram o novo computador em 14 de fevereiro de 1946. O ENIAC era mil vezes mais rápido do que qualquer máquina anterior, resolvendo 5 mil adições e subtrações, 350 multiplicações ou 50 divisões por segundo. E tinha o dobro do tamanho do Mark I: encheu 40 gabinetes com 100 mil componentes, incluindo cerca de 17 mil válvulas eletrônicas. Pesava 27 toneladas e media 5,50 x 24,40 m e consumia 150 kW. Apesar de seus inúmeros ventiladores, a temperatura ambiente chegava às vezes aos 67 graus centígrados. Executava 300 multiplicações por segundo, mas, como foi projetado para resolver um conjunto particular de problemas, sua reprogramação era muito lenta. Tinha cerca de 19.000 válvulas substituídas por ano. Em 1943, antes da entrada em operação do ENIAC a Inglaterra já possuía o Colossus, máquina criada por Turing para decifrar os códigos secretos alemães. Possuía 2.000 válvulas, coincidentemente o mesmo número proposto por Zuse alguns anos antes.


Foto do ENIAC

Em 1945 Von Neumann sugeriu que o sistema binário fosse adotado em todos os computadores, e que as instruções e dados fossem compilados e armazenados internamente no computador, na seqüência correta de utilização. Estas sugestões tornaram-se a base filosófica para projetos de computadores. (Atualmente pesquisam-se computadores "não Von Neumann", que funcionam com fuzzy logic, lógica confusa) A partir dessas idéias, e da lógica matemática ou álgebra de Boole, introduzida por Boole no início do século XIX, é que Mauchly e Eckert projetaram e construíram o EDVAC, Electronic Discrete Variable Automatic Computer, completado em 1952, que foi a primeira máquina comercial eletrônica de processamento de dados do mundo. Eles haviam tentado isso com o BINAC, computador automático binário, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) o suficiente para ser levado a bordo de um avião, mas que nunca funcionou a contento. O EDVAC utilizava memórias baseadas em linhas de retardo de mercúrio, bem mais caras e lentas que os CRTs, mas também com maior capacidade de armazenamento. Wilkes construiu o EDSAC, Electronic Delay Storage Automatic Calculator em 1949, que funcionava segundo a técnica de programas armazenados.


Foto do EDVAC

O primeiro computador comercial de grande escala foi o UNIVAC, UNIVersal Automatic Computer, americano, de 1951, que era programado ajustando-se cerca de 6.000 chaves e conectando-se cabos a um painel. A entrada e saída de informações era realizada por uma fita metálica de 1/2 polegada de largura e 400 m de comprimento. Ao todo, venderam-se 46 unidades do UNIVAC Modelo I, que eram normalmente acompanhados de um dispositivo impressor chamado UNIPRINTER, que, sozinho, consumia 14.000 W. Outro foi o IBM 701, de 1952, que utilizava fita plástica, mais rápida que a metálica do UNIVAC, e o IBM 704, com a capacidade fenomenal de armazenar 8.192 palavras de 36 bits, ambos da IBM. Na Inglaterra surgem o MADAM, Manchester Automatic Digital Machine, o SEC, Simple Electronic Computer, e o APEC, All-Purpose Electronic Computer.


Foto do UNIVAC

Entre 1945 e 1951, o WHIRLWIND, do MIT, foi o primeiro computador a processar informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em CRT (monitor de vídeo), ou na flexowriter, uma espécie de máquina de escrever (Whirlwind quer dizer redemoinho). Em 1947 Bardeen, Schockley e Brattain inventam o transístor, e, em 1953 Jay Forrester constrói uma memória magnética. Os computadores a transistores surgem nos anos 50, pesando 150 kg, com consumo inferior a 1.500 W e maior capacidade que seus antecessores valvulados.

A Segunda Geração

Era a segunda geração. Exemplos desta época são o IBM 1401 e o BURROUGHS B 200. Em 1954 a IBM comercializa o 650, de tamanho médio. O primeiro computador totalmente transistorizado foi o TRADIC, do Bell Laboratories. O IBM TX-0, de 1958, tinha um monitor de vídeo de primeira qualidade, era rápido e relativamente pequeno, possuia dispositivo de saída sonora e até uma caneta óptica. O PDP-1, processador de dados programável, construído por Olsen, virou sensação no MIT: os alunos jogavam Spacewar! e Rato-no-labirinto, através de um joystick e uma caneta óptica.


Foto do IBM 1401

Em 1957 o matemático Von Neumann colaborou para a construção de um computador avançado, o qual, por brincadeira, recebeu o nome de MANIAC, Mathematical Analyser Numerator Integrator and Computer. Em janeiro de 1959 a Texas Instruments anuncia ao mundo uma criação de Jack Kilby: o circuito integrado. Enquanto uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois números de dez dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de segundo, um computador transistorizado em cerca de quatro bilionésimos de segundo, e, uma máquina de terceira geração em menos tempo ainda.


A Terceira Geração

A terceira geração de computadores é da década de 60, com a introdução dos circuitos integrados. O Burroughs B-2500 foi um dos primeiros. Enquanto o ENIAC podia armazenar vinte números de dez dígitos, estes podem armazenar milhões de números. Surgem conceitos como memória virtual, multiprogramação e sistemas operacionais complexos. Exemplos desta época são o IBM 360 e o BURROUGHS B-3500.


Foto do Manchester Mark I e do Primeiro Chip de Computador

Em 1960 existiam cerca de 5.000 computadores nos EUA. É desta época o termo software. Em 1964, a CSC, Computer Sciences Corporation, criada em 1959 com um capital de 100 dólares, tornou-se a primeira companhia de software com ações negociadas em bolsa. O primeiro minicomputador comercial surgiu em 1965, o PDP-5, lançado pela americana DEC, Digital Equipament Corporation. Dependendo de sua configuração e acessórios ele podia ser adquirido pelo acessível preço de US $ 18,000.00. Seguiu-se o PDP-8, de preço ainda mais competitivo. Seguindo seu caminho outras companhias lançaram seus modelos, fazendo com que no final da década já existissem cerca de 100.000 computadores espalhados pelo mundo.Em 1970 a INTEL Corporation introduziu no mercado um tipo novo de circuito integrado: o microprocessador. O primeiro foi o 4004, de quatro bits. Foi seguido pelo 8008, em 1972, o difundidíssimo 8080, o 8085, etc. A partir daí surgem os microcomputadores. Para muitos, a quarta geração surge com os chips VLSI, de integração em muito larga escala. As coisas começam a acontecer com maior rapidez e freqüência. Em 1972 Bushnell lança o vídeo game Atari. Kildall lança o CP/M em 1974. O primeiro kit de microcomputador, o ALTAIR 8800 em 1974/5. Em 1975 Paul Allen e Bill Gates criam a Microsoft e o primeiro software para microcomputador: uma adaptação BASIC para o ALTAIR. Em 1976 Kildall estabelece a Digital Research Incorporation, para vender o sistema operacional CP/M. Em 1977 Jobs e Wozniak criam o microcomputador Apple, a Radio Shack o TRS-80 e a Commodore o PET. A planilha Visicalc (calculador visível) de 1978/9, primeiro programa comercial, da Software Arts. Em 1979 Rubinstein começa a comercializar um software escrito por Barnaby: o Wordstar, e Paul Lutus produz o Apple Writer. O programa de um engenheiro da NASA, Waine Ratliff, o dBASE II, de 1981. Também de 1981 o IBM-PC e o Lotus 1-2-3, de Kapor, que alcançou a lista dos mais vendidos em 1982.


Primeiro chip da Intel o 4004 com 2.300 transistors, no mesmo ano Zuffo da USP fabrica o 1o chip nacional


Foto dos Sinclair ZX81/ZX Spectrum

Computador minúsculo concebido por John Sinclair, professor na Universidade de Cambrige no U.K.. Inicialmente concebido para utilização pelos estudantes da Universidade de Cambrige começou a ser comercializado, em Portugal, circa 1980 com um preço aproximado de 12.500$00. Existia uma versão em kit para montagem que era comprada aproximadamente por 9.000$00 A CPU compreendia um processador Zilog Z80A de 8 bit a 3,25 MHZ, uma memória que compreendia uma ROM e uma RAM e uma ULA. A ROM, com 8K de capacidade, armazenava de modo permanente os programas, tabelas etc. necessários ao funcionamento do sistema e um interpretador para a linguagem de programação BASIC. A RAM compreendia uma área de trabalho disponível para o utilizador de 1K mas, era extensível até 16K. Na caixa de plástico alojava-se ainda um subsistema de comunicações para ligação em série a periféricos denominado SCL (Sinclair Computer Logic), uma unidade para entrada e saída de som, um codificador de imagens para TV. Num rasgo aberto na parte traseira da caixa de plástico existia um conector onde se podia ligar uma impressora minúscula que usava um rolo de papel especial. O computador era fornecido com um cabo para ligação ao televisor e outro para ligação a um gravador de "cassettes" musical (norma Philips). O transformador de corrente eléctrica alterna para contínua era adquirido em separado. Os programas e dados eram gravados na cassette magnética e eram também lidos a partir dela. O teclado não dispunha de teclas. Os caracteres ASCII eram impressos numa membrana. Esta tecnologia e a falta de ventilação da unidade de alimentação eléctrica eram as causas principais de avarias que enviavam o ZX81 para o caixote do lixo. Foi um computador muito popular devido ao seu baixo preço de venda.


Foto do Osborne1

Fabricado pela Osborne nos USA circa 1982. A CPU compreendia uma memória com 64KB, uma UAL e um Processador Zilog Z80A de 8 bit a 4 MHZ. A caixa, do tipo mala attaché com uma massa de 11 Kg, albergava ainda 2 unidades de disquette de 5" 1/4 com 204 KB ou em opção com 408 KB de capacidade, um écran de 5" (24 linhas por 54 colunas) a preto e branco e um teclado basculante (servia de tampa à mala) com dois blocos de teclas, um alfanumérico com os caracteres ASCII e outro numérico. Dispunha ainda de conectores para um écran externo, ports série RS-232C e paralelo IEEE-488 ou Centronics. O sistema era alimentado por uma bateria própria recarregável com uma autonomia de 5 horas, por uma bateria externa de automóvel ou por um transformador de corrente eléctrica alterna para contínua. O sistema operativo era o CP/M desenvolvido pela Digital Corporation. O software fornecido incluia um Interpretador M BASIC desenvolvido pela MICROSOFT, um Compilador BASIC desenvolvido pela Compyler Systems, uma folha de cálculo SUPERCALC (derivada do Visicalc) e um processador de texto denominado WORDSTAR. Podia ser programado em BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER e CROSS-ASSEMBLER. Última morada conhecida: desconhecida (foi visto na FILEME-82 em Lisboa).


Foto do IBM PC/XT e do Seu Processador

Fabricado pela IBM nos USA circa 1980, foi apresentado em Portugal em Janeiro de 1985 já com a versão PC-XT disponível, à qual se seguiu uma versão PC-AT. O CPU compreendia uma memória ROM de 40KB e uma memória RAM de 64KB extensível até 640KB, uma ULA e um processador Intel 8088 de 16 bit com uma frequência de clock de 4,77 MHZ. Era construido com três módulos separados: caixa, écran e teclado. O écran era a preto e branco com 25 linhas e 80 colunas podendo ser substituido por um écran a cores com 16 cores. A caixa para além do CPU albergava uma unidade de disquette de 5" 1/4 com uma capacidade de 360KB podendo alojar ainda uma outra unidade de disquette idêntica ou um disco com 10MB de capacidade, que era parte integrada na versão PC-XT. O teclado com 83 teclas, 10 das quais correspondentes a funções pré programadas, dispunha de caracteres acentuados (português). Possuia ainda saída para impressora e o PC-XT dispunha de um interface para comunicações assincronas. O sistema operativo era o PC/MS-DOS o qual era um MS-DOS desenvolvido pela Microsoft para a IBM. A linguagem de programação utilizada era o BASIC. Embora sendo um marco histórico da entrada da IBM no sector de mercado dos PC's, chegou a Portugal tardiamente não ocupando nunca o espaço já conquistado por outros fabricantes. Só cerca de dois anos depois, com a apresentação dos modelos PS/2-50 e PS/2-60, que eram equipados com um processador Intel 80286, a IBM recuperou o sector de mercado dos PC's utilizando para o efeito a penetração nas empresas onde tinha instalado mainframes e "pequenos computadores".

A Quarta Geração

Surgiram em decorrência do uso da técnica dos circuitos LSI (LARGE SCALE INTEGRATION) e VLSI (VERY LARGE SCALE INTEGRATION). Nesse período surgiu também o processamento distribuído, o disco ótico e o a grande difusão do microcomputador, que passou a ser utilizado para processamento de texto, cálculos auxiliados, etc. -1982- Surge o 286 Usando memória de 30 pinos e slots ISA de 16 bits, já vinha equipado com memória cache, para auxiliar o processador em suas funções. Utilizava ainda monitores CGA em alguns raros modelos estes monitores eram coloridos mas a grande maioria era verde, laranja ou cinza. -1985- O 386 Ainda usava memória de 30 pinos, porém devido ás sua velocidade de processamento já era possivel rodar softwares graficos mais avançados como era o caso do Windows 3.1, seu antecessor podia rodar apenas a versão 3.0 devido à baixa qualidade dos monitores CGA, o 386 já contava com placas VGA que podiam atingir até 256 cores desde que o monitor também suportasse essa configuração. -1989- O 486 DX A partir deste momento o coprocessador matemático já vinha embutido no próprio processador, houve também uma melhora sensível na velocidade devido o advento da memória de 72 pinos, muito mais rapida que sua antepassada de 30 pinos e das placas PCI de 32 bits duas vezes mais velozes que as placas ISA . Os equipamentos já tinham capacidade para as placas SVGA que poderiam atingir até 16 milhões de cores, porém este artificio seria usado comercialmente mais para frente com o advento do Windows 95. Neste momento iniciava uma grande debandada para as pequenas redes como, a Novel e a Lantastic que rodariam perfeitamente nestes equipamentos, substituindo os "micrões" que rodavam em sua grande maioria os sistema UNIX (Exemplo o HP-UX da Hewlett Packard e o AIX da IBM). Esta substituição era extremamente viável devido à diferença brutal de preço entre estas máquinas.


Foto de um 386 e um 486 e a foto de Uma Mother Board (Placa Mãe) de um 486 DX 100


A Quinta Geração

As aplicações exigem cada vez mais uma maior capacidade de processamento e armazenamento de dados. Sistemas especialistas, sistemas multimídia (combinação de textos, gráficos, imagens e sons), banco de dados distribuídos e redes neurais, são apenas alguns exemplos dessas necessidades. Uma das principais características dessa geração é a simplificação e miniaturização do computador, além de melhor desempenho e maior capacidade de armazenamento. Tudo isso, com os preços cada vez mais acessíveis. A tecnologia VLSI está sendo substituída pela ULSI (ULTRA LARGE SCALE INTEGRATION). O conceito de processamento está partindo para os processadores paralelos, ou seja, a execução de muitas operações simultaneamente pelas máquinas. A redução dos custos de produção e do volume dos componentes permitiram a aplicação destes computadores nos chamados sistemas embutidos, que controlam aeronaves, embarcações, automóveis e computadores de pequeno porte. São exemplos desta geração de computadores, os micros que utilizam a linha de processadores Pentium, da INTEL. 1993- Surge o Pentium As grandes mudanças neste periodo ficariam por conta das memórias DIMM de 108 pinos, do aparecimento das placas de video AGP e de um aprimoramento da slot PCI melhorando ainda mais seu desempenho. 1997- O Pentium II / 1999- O Pentium III / 2001- o Pentium 4 Não houveram grandes novidades após 1997, sendo que as mudanças ficaram por conta dos cada vez mais velozes processadores.


Na ordem o Celeron / Ciryx / AMD K6 / Pentium MMX


O Pentium 2 e o AMD K6-2 os TOP de Linha até 1998 / Foto de uma placa de Pentium II


O Futuro - Vem aí o computador quântico

A IBM anunciou ontem a construção do mais avançado computador quântico do mundo. A novidade representa um grande passo em relação ao atual processo de fabricação de chips com silício que, de acordo com especialistas, deve atingir o máximo de sua limitação física de processamento entre 10 e 20 anos. O computador quântico usa, em lugar dos tradicionais microprocessadores de chips de silício, um dispositivo baseado em propriedades físicas dos átomos, como o sentido de giro deles, para contar números um e zero (qubits), em vez de cargas elétricas como nos computadores atuais. Outra característica é que os átomos também podem se sobrepor, o que permite ao equipamento processar equações muito mais rápido. "Na verdade, os elementos básicos dos computadores quânticos são os átomos e as moléculas", diz Isaac Chuang, pesquisador que liderou a equipe formada por cientistas da IBM, Universidade de Staford e Universidade de Calgary. Cada vez menores Segundo os pesquisadores da IBM, os processadores quânticos começam onde os de silício acabam. "A computação quântica começa onde a lei de Moore termina, por volta de 2020, quando os itens dos circuitos terão o tamanho de átomos e moléculas", afirma Chuang. A lei de Moore, conceito criado em 65 pelo co-fundador da fabricante de processadores Intel, Gordon Moore, diz que o número de transistores colocados em um chip dobra a cada 18 meses. Quanto maior a quantidade de transistores nos chips, maior a velocidade de processamento. Essa teoria vem se confirmando desde a sua formulação. Pesquisa O computador quântico da IBM é um instrumento de pesquisa e não estará disponível nos próximos anos. As possíveis aplicações para o equipamento incluem a resolução de problemas matemáticos, buscas avançadas e criptografia, o que já despertou o interesse do Departamento de Defesa dos Estados Unidos


Por enquanto fico por aqui, depois continuo na próxima postagem sobre a evolução dos computadores.




Agora postarei um pouca da História do Cinema !


A História do Cinema



O cinema desenvolveu-se cientificamente antes que suas possibilidades artísticas e comerciais fossem conhecidas e exploradas. Uma das primeiras conquistas científicas que levaram diretamente ao desenvolvimento do cinema foram as observações de Peter Mark Roget, secretário da Real Sociedade de Londres, que em 1824 publicou um importante trabalho intitulado Persistência da visão no que tange aos objetos em movimento, no qual afirmava que o olho humano retém as imagens durante uma fração de segundo posterior ao momento em que elas desaparecem de seu ângulo de visão. Essa descoberta estimulou vários cientistas a inventar diversos meios capazes de demonstrar o princípio.
Primeiras experiências
Tanto nos Estados Unidos como na Europa, animava-se imagens desenhadas à mão como forma de diversão, empregando dispositivos que se tornaram populares nos salões da classe média. Concretamente, descobriu-se que se 16 imagens estáticas de um movimento que transcorre em um segundo são passadas sucessivamente também em um segundo, a persistência da visão as une, fazendo com que sejam vistas como uma só imagem em movimento.
O zoótropo, que chegou até nossos dias, traz uma série de desenhos impressos horizontalmente em tiras de papel, colocadas no interior de um tambor giratório montado sobre um eixo. Na metade do cilindro, uma série de ranhuras verticais pelas quais se olha permite que, ao girar-se o tambor, veja-se imagens em movimento. Máquina mais elaborada foi o praxinoscópio, do inventor francês Charles Émile Reynaud. Ele consistia em um tambor giratório com um aro dotado de espelhos colocado no centro e os desenhos colocados na parede interior. Conforme se girava o tambor, os desenhos pareciam animar-se.
Naqueles mesmos anos, William Henry Fox Talbot, no Reino Unido, e Louis Daguerre, na França, trabalhavam em um novo projeto que possibilitaria o desenvolvimento do cinematógrafo: a fotografia. Em 1861, o inventor norte-americano Coleman Sellers patenteou o quinematoscópio, que conseguia animar uma série de fotografias fixas montadas sobre uma roda giratória dotada de palhetas.
Um passo relevante para o desenvolvimento da primeira câmera de imagens em movimento foi dado pelo fisiologista francês Etienne Jules Marey, cujo cronofotógrafo (um fuzil fotográfico) portátil movia uma única faixa, que permitia obter doze imagens em uma placa giratória que dava uma volta completa em um segundo. Por volta de 1889, os inventores americanos Hannibal Goodwin e Georges Eastman desenvolveram películas de emulsão fotográfica de alta velocidade montadas em um celulóide resistente: sua inovação eliminou um obstáculo essencial para uma experimentação mais eficiente com as imagens em movimento.
Na década de 1890, Thomas Alva Edison construiu a primeira máquina de cinema, o quinetoscópio, que tinha uns 15 metros de película em um dispositivo análogo a uma espiral sem fim, que o espectador — individual — tinha que ver através de uma lente de aumento. As experiências com projeção de imagens em movimento visíveis por mais de um espectador foram realizadas simultaneamente nos Estados Unidos e na Europa. Na França, os irmãos Louis e Auguste Lumière, em 1895, chegaram ao cinematógrafo, invento que era ao mesmo tempo câmara, copiadora e projetor, que é o primeiro aparelho que se pode qualificar autenticamente de cinema. Produziram também uma série de curta-metragens, no gênero documentário, com grande êxito. Em 1896, o ilusionista francês Georges Méliès demonstrou que o cinema servia não apenas para registrar a realidade, mas também para torná-la divertida ou falseá-la. Realizou uma série de filmes que exploravam o potencial narrativo do novo meio e rodou o primeiro grande filme a ser exibido, cuja projeção durou cerca de quinze minutos: L’affaire Dreyfuss (O caso Dreyfuss, 1899). Mas Méliès é famoso sobretudo por suas notáveis fantasias, como Viagem à lua (1902), nas quais experimentava as possibilidades de trucagens com a câmara cinematográfica.
O estilo documentalista dos irmãos Lumière e as fantasias teatrais de Méliès fundiram-se nas ficções realistas do inventor americano Edwin S. Porter, que produziu o primeiro filme interessante de seu país, Great train robbery, em 1903. Esse filme teve um grande êxito e muito contribuiu para que o cinema se transformasse em um espetáculo de massa. As pequenas salas de exibição, conhecidas como "cinema poeira", espalharam-se pelos Estados Unidos e o cinema começou a firmar-se como indústria.


Cinema | A História do Cinema Mundial - 1. O cinema mudo


Recomende esta página para um amigo

Imprimir

Índice Cinema

Capa Arte e Cultura

Por Leonardo Campos*

Denominado como a Sétima arte, o Cinema encanta multidões há tempos. Em dezembro de 1895, pela primeira vez um filme foi projetado publicamente em uma tela. Esta projeção foi realizada pelos irmãos Lumière e aconteceu num café parisiense. Foram cenas simplórias, sendo uma delas a de um trem chegando a uma estação. Em poucos meses, todas as grandes cidades da Europa tinham filmes em exibição.

Entender as origens do cinema requer muito mais que estes conhecimentos triviais. A Sétima arte é um tema que abrange muitas ramificações, entre elas, a possibilidade de tornar-se um portal para exibição dos mais diversos discursos ideológicos, aos quais analisaremos dentro das próximas semanas. Como citou Peter Greenway em determinado momento de sua carreira, “hoje os filmes vão mais às pessoas do que as pessoas vão aos filmes”. Emblemática citação serve como estampa para abertura desta coletânea de artigos, que possibilitará a você, leitor, a compreensão das mudanças incisivas que ocorreram desde este primeiro momento (o cinema mudo) até o cinema contemporâneo, o qual será analisado nos momentos finais desta seleção.

Neste primeiro momento, o cinema mudo, que é considerado a origem de tudo, será o tema deste nosso primeiro artigo.

PRIMEIRO CINEMA: O cinema mudo

Quando o cinema surgiu, ainda não havia sido fixado um código próprio e este encontrava-se misturado a outras formas culturais: cartuns, revistas ilustradas e cartões-postais. Segundo alguns historiadores, não existe um único descobridor do cinema, e os aparatos não surgiram em um só lugar. Foram frutos de circunstâncias.

Segundo o historiador Andre Gaudrecult, há nas origens do cinema, mostração e a narração. A mostração envolve a cena indireta de fatos, ao passo que a narração envolve a manipulação desses acontecimentos pela atividade constante do narrador. Já o historiador Tom Gumming contribui com os estudos da história do cinema comprovando através de suas pesquisas que o primeiro cinema tinha uma maneira particular de se dirigir ao espectador, apoiando-se no exibicionismo. Não havia habilidades técnicas para contar histórias, mas sim, chamar atenção do espectador de forma direta e invasiva.


Foto de um Nicklodeon, USA
Inicialmente, tinha-se os nickleodons, marco inicial da atividade cinematográfica verdadeiramente industrial. A maioria dos filmes eram produzidos em plano único e a duração média dos filmes era de 5 a 10 minutos. Naquele momento, os espectadores estavam interessados nos filmes como forma de espetáculo visual. A maneira de se contar as histórias não chamava atenção. Foi com a explosão dos nickleodons que forçou-se a reorganização da produção, provocando mudanças nos aspectos da arte cinematográfica, ainda uma inovação fantásticas para todos, dos produtores culturais do período aos espectadores.

Em 1907, os filmes começaram a utilizar convenções narrativas especificamente cinematográficas, na tentativa de construir enredos auto-explicativos. O melodrama e a defesa da ordem social passaram a ser os gêneros dominantes. A crítica de muitos historiadores dizia que os primeiros filmes eram demasiadamente teatrais. Desfilaram no cinema desse período, estereótipos raciais, religiosos e de nacionalidade. Houve gozações de caipiras, imigrantes, policiais, vendedores, trabalhadores rurais e manuais.

Os cenários eram bastante simples e teatrais, o deslocamento dos atores se dava sempre pela lateral, acentuando a sensação de platitude (monotonia) e de teatralidade. Neste período, a câmera ficava estática, de modo a mostrar o corpo inteiro de um conjunto de pessoas, realizando panorâmicas apenas para reenquadrar certas ações mais movimentadas.

Em 1898, as tensões entre Estados Unidos e Espanha na disputa por Cuba e pelas Filipinas aumentou consideravelmente a demanda por imagens de guerra. É interessante perceber como nos primórdios tudo era realizado de forma pitoresca e adequada, claro, ao seu tempo. O primeiro King Kong (apenas como exemplo, pois não se encaixa no período aqui explorado) trazia uma salamandra como vilão. Essa salamandra foi adaptada e inseridos os efeitos técnicos da época. Em Battle of Manila Bay reproduziu-se, com barquinhos de papel sobre um tanque de água, a batalha entre Estados Unidos e Espanha. As filmagens foram realizadas em primeiro plano em um aquário com peixes vivos.

Havia as gags naquela época. Gags são as formas narrativas mais antigas do cinema. É uma piada visual cujo desenvolvimento narrativo tem duas fases, a preparação e o desfecho inesperado. Os filmes de perseguição eram muito populares, sinalizando uma preferência do público por ficções auto-explicativas. Algumas narrativas eram relatos incompletos que se apoiavam no conhecimento que o espectador já possuía sobre o assunto ou completados pelo comentador.

Entre 1907-1913, o cinema aos poucos organizou-se de forma industrial, estabelecendo uma especialização da várias etapas de produção e exibição de filmes, que passaram a ser mais compridos, atingindo cerca de 15 minutos. A figura do produtor, hoje indispensável numa produção cinematográfica surgiu neste período de transição do primeiro cinema. Nesta fase, podemos perceber o desenvolvimento das técnicas de filmagem, atuação, iluminação e enquadramento, no sentido de tornar a narração mais clara para o espectador.

Durante o período de transição, empresas da européias dominaram o mercado internacional. Aferimos então que de inicio, não era o cinema norte-americano que dominava o cinema mundial. As mudanças são circunstâncias políticas e culturais que serão citadas e analisadas nos próximos textos desta coletânea. Entre uma transição e outra, os americanos lançam o primeiro e mais longo espetaculoso filme: The Birth of a Nation (O nascimento de uma nação), longa que trazia a Guerra Civil americana como tema central.


Cena de A trip to the moon, 1902
Para melhor entender este período, recomenda-se ler sobre George Mélies. Ilusionista francês de sucesso e um dos precursores do cinema, usava inventivos efeitos fotográficos para a criação de mundos fantásticos. Melies era proprietário do Théatre Robert-Houdin em Paris, que anteriormente havia pertencido ao ilusionista Jean-Eugène Robert-Houdin. Ganhou um protótipo criado pelo cinematógrafo inglês Robert W. Paul e ficou entusiasmado com isso, tanto é que saía filmando cenas do quotidiano em Paris.

Hoje, podemos encontrar diversos dos filmes mudos de George Mélies. Assista alguns deles na lista abaixo:

Relação dos filmes de George Mélies:

1. Une partie de cartes (1896)
2. L'Escamotage d'une dame (1896)
3. La Cuirassé Maine (1898)
4. La caverne maudite (1898)
5. Cléopâtre (1899) (Cleópatra)
6. Le Christ marchant sur les eaux (1899)
7. Escamotage d'une dame chez Robert-Houdin (1896)
8. Illusioniste fin de siècle (1899)
9. Cinderella (1899)
10. O Caso Dreyfus / L'Affaire Dreyfus (1899)
11. Viagem à Lua / Le Voyage dans la Lune (1902)
12. Le Cake-walk infernal (1903)
13. La Flamme merveilleuse (1903)
14. O Reino das Fadas / Le Royaume des Fées (1903)
15. O Monstro / Le Monstre (1903)
16. O Melómano / Le Mélomane (1903)
17. L'Auberge du Bon Repos (1903)
18. A Lâmpada Mágica / La Lanterne magicue (1903)
19. O Sonho do Mestre de Dança / La Rêve du Maître de Ballet (1903)
20. A Maldição de Fausto / Le Damnation de Faust (1903)
21. Le Bourreau turc (1904)
22. Le Roi du Maquillage (1904)
23. Le Voyage à travers l'Impossible (1904)
24. Le Palais des Mille et Une Nuits (1905)
25. Le Raid Paris-Monte Carlo en 2 heures (1905)
26. Les 400 Farces du Diable (1906)
27. L'Alchimste Parafaragamus ou la Cornue infernale (1906)
28. O Eclipse / L'Éclipse du soleil en pleine lune (1907)
29. 20.000 Léguas Submarinas (1907)
30. Le Rêve d'un fumeur d'opium (1907)
31. Le secret du Médécin (1910)
32. Les Hallucinations du Baron de Münchausen (1910)

* Graduando em Letras Vernáculas com Habilitação em Língua Estrangeira Moderna - Inglês - UFBA | Membro do grupo de pesquisas “Da invenção à reivenção do Nordeste” – Letras – UFBA | Pesquisador na área de cinema, literatura e cultura





É isso aí pessoal continuo na próxima postagem, espero que estejam gostando, pois gosto muito de cinema
e computadores

Abraços à todos e uma boa leitura !!