A evolução dos computadores
Você sabia que computadores já chegaram a pesar 30 toneladas e custar 2 milhões de dólares? Conheça mais sobre a história da informática.
Não é segredo que o seu computador atual é fruto de uma evolução que levou décadas para chegar aonde está – e ainda está muito longe de chegar ao seu final. Se pensarmos que cerca de dez anos atrás os processadores ainda nem conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a informática é uma tarefa ainda mais complicada.
Você sabia que no início da década de 1950 já existiam computadores? Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos, elementos desapareceram, componentes foram criados e parece até que estamos falando de assuntos totalmente desconexos.
Então prepare-se para conhecer um pouco mais sobre essa magnífica história. Para facilitar a leitura, atendemos às divisões de alguns autores especializados no assunto e separamos a história da informática em gerações. Agora aproveite para aprender mais ou para conhecer a importante evolução dos computadores.
As gigantes válvulas da primeira geração
Imagine como seria sua vida se você precisasse de uma enorme sala para conseguir armazenar um computador. Logicamente isso seria impossível, pois os primeiros computadores, como o ENIAC e o UNIVAC eram destinados apenas a funções de cálculos, sendo utilizados para resolução de problemas específicos.
Por que problemas específicos? Os computadores da primeira geração não contavam com uma linguagem padronizada de programação. Ou seja, cada máquina possuía seu próprio código e, para novas funções, era necessário reprogramar completamente o computador. Quer mudar o problema calculado? Reprograme o ENIAC.

Fonte da imagem: Wikimedia Commons/Domínio Público
Esses computadores gigantescos ainda sofriam com o superaquecimento constante. Isso porque em vez de microprocessadores, eles utilizavam grandes válvulas elétricas, que permitiam amplificação e troca de sinais, por meio de pulsos. Elas funcionavam de maneira correlata a uma placa de circuitos, sendo que cada válvula acesa ou apagada representava uma instrução à máquina.
Com poucas horas de utilização, essas válvulas eram queimadas e demandavam substituição. Por isso, a cada ano eram trocadas cerca de 19 mil delas em cada máquina. Sim, 19 mil válvulas representavam mais do que o total de componentes utilizados por um computador ENIAC. Como você pode perceber, esses computadores não saíam baratos para os proprietários.
Transistores e a redução dos computadores
As gigantes máquinas não estavam sendo rentáveis, pelos constantes gastos com manutenção. A principal necessidade era substituir as válvulas elétricas por uma nova tecnologia que permitisse um armazenamento mais discreto e não fosse tão responsável pela geração de calor excessivo, evitando superaquecimentos.
Foi então que os transistores (criados em 1947 pela empresa Bell Laboratories) passaram a integrar os painéis das máquinas de computar. Os componentes eram criados a partir de materiais sólidos conhecidos como “Silício”. Exatamente, os materiais utilizados até hoje em placas e outros componentes, extraídos da areia abundante.

Fonte da imagem: Wikimedia Commons/Hohum
Existia uma série de vantagens dos transistores em relação às válvulas. Para começar: as dimensões desses componentes eram bastante reduzidas, tornando os computadores da segunda geração cem vezes menores do que os da primeira. Além disso, os novos computadores também surgiram mais econômicos, tanto em questões de consumo energético, quanto em preços de peças.
Para os comandos desses computadores, as linguagens de máquina foram substituídas por linguagem Assembly. Esse tipo de programação é utilizado até hoje, mas em vez de ser utilizado para softwares ou sistemas operacionais, é mais frequente nas fábricas de componentes de hardware, por trabalhar com instruções mais diretas.
Em vez das 30 toneladas do ENIAC, o IBM 7094 (versão de maior sucesso dessa segunda geração de computadores) pesava apenas 890 Kg. E por mais que pareça pouco, essa mesma máquina ultrapassou a marca de 10 mil unidades vendidas.

Fonte da imagem: Wikimedia Commons/David Monniaux
Curiosidade: os computadores dessa segunda geração foram inicialmente desenvolvidos para serem utilizados como mecanismos de controle em usinas nucleares. Um modelo similar pode ser visto no desenho “Os Simpsons”, mais especificamente no posto de trabalho de Homer, técnico de segurança na Usina Nuclear.
Miniaturização e circuitos integrados
O emprego de materiais de silício, com condutividade elétrica maior que a de um isolante, mas menor que a de um condutor, foi chamado de semicondutor. Esse novo componente garantiu aumentos significativos na velocidade e eficiência dos computadores, permitindo que mais tarefas fossem desempenhadas em períodos de tempo mais curtos.
Com a terceira geração dos computadores, surgiram também os teclados para digitação de comandos. Monitores também permitiam a visualização de sistemas operacionais muito primitivos, ainda completamente distantes dos sistemas gráficos que conhecemos e utilizamos atualmente.

Fonte da imagem: Wikimedia Commons/Domínio Público
Apesar das facilidades trazidas pelos semicondutores, os computadores dessa geração não foram reduzidos, sendo que um dos modelos de mais sucesso (o IBM 360, que vendeu mais de 30 mil unidades) chegava a pesar mais do que os antecessores. Nessa época (final da década de 1970 e início da década de 1980) os computadores passaram a ser mais acessíveis.
Outro grande avanço da terceira geração foi a adição da capacidade de upgrade nas máquinas. As empresas poderiam comprar computadores com determinadas configurações e aumentar as suas capacidades de acordo com a necessidade, pagando relativamente pouco por essas facilidades.
Microprocessadores: o início dos computadores pessoais
Enfim chegamos aos computadores que grande parte dos usuários utiliza até hoje. Os computadores da quarta geração foram os primeiros a serem chamados de “microcomputadores” ou “micros”. Esse nome se deve ao fato de eles pesarem menos de 20 kg, o que torna o armazenamento deles muito facilitado.
Você consegue imaginar qual o componente que tornou possível essa redução das máquinas? Acertou quem disse que foram os microprocessadores. O surgimento dos pequenos chips de controle e processamento tornou a informática muito mais acessível, além de oferecer uma enorme gama de novas possibilidades para os usuários.
Em 1971, já eram criados processadores com esse novo formato, mas apenas na metade da década começaram a surgir comercialmente os primeiros computadores pessoais. Os Altair 880 podiam ser comprados como um kit de montar, vendidos por revistas especializadas nos Estados Unidos. Foi com base nessa máquina que Bill Gates e Paul Allen criaram o “Basic” e inauguraram a dinastia Microsoft.
A importância da Apple
Na mesma época, os dois Steves da Apple (Jobs e Wozniac) criaram a empresa da Maçã para se dedicarem a projetos de computação pessoal facilitados para usuários leigos. Assim surgiu o Apple I, projeto que foi primeiramente apresentado para a HP. Ele foi sucedido pelo Apple II, após uma injeção de 250 mil dólares pela Intel.

Fonte da imagem: Musée Bolo
Essa segunda versão dos computadores possuía uma versão modificada do sistema BASIC, criada também pela Microsoft. O grande avanço apresentado pelo sistema era a utilização de interface gráfica para alguns softwares. Também era possível utilizar processadores de texto, planilhas eletrônicas e bancos de dados.
Essa mesma Apple foi responsável pela inauguração dos mouses na computação pessoal, juntamente com os sistemas operacionais gráficos, como o Macintosh. Pouco depois a Microsoft lançou a primeira versão do Windows, bastante parecida com o sistema da rival.
E os ciclos tornam-se clocks
Até a terceira geração dos computadores, o tempo de resposta das máquinas era medido em ciclos. Ou seja, media-se um número de ações em curtos períodos de tempo para que fosse possível saber qual fração de segundo era utilizada para elas. Com os microprocessadores, já não era viável medir as capacidades dessa forma.
Por isso surgiram as medidas por clocks. Esta definição calcula o número de ciclos de processamento que podem ser realizados em apenas um segundo. Por exemplo: 1 MHz significa que em apenas um segundo é possível que o chip realize 1 milhão de ciclos.
Grande parte dos computadores pessoais lançados nessa época eram alimentados por processadores da empresa Intel. A mesma Intel que hoje possui alguns dos chips mais potentes, como o Intel Core i7 (sobre o qual falaremos mais, em breve). Como você pode saber, estas máquinas são muito leves e puderam ser levadas a um novo patamar.
Notebooks: a quarta geração portátil
Considerando o progresso da informática como sendo inversamente proporcional ao tamanho ocupado pelos componentes, não seria estranho que logo os computadores transformassem-se em peças portáteis. Os notebooks surgiram como objetos de luxo (assim como foram os computadores até pouco mais de dez anos), sendo caros e de pouca abrangência comercial.

Fonte da imagem:divulgação/Asus
Além dos notebooks, temos também os netbooks disponíveis no mercado. Estes funcionam de maneira similar aos outros, mas geralmente possuem dimensões e configurações menos atraentes. Ganham pontos pela extrema portabilidade e duração das baterias utilizadas, sendo certamente um degrau a mais na evolução dos computadores.
Hoje, o preço para se poder levar os documentos, arquivos e programas para todos os lugares não é muito superior ao cobrado por desktops. Mesmo assim, o mercado ainda está longe de atingir o seu ápice. Quem sabe qual será o próximo passo da indústria?
Múltiplos núcleos: a quinta geração?
Ainda estamos em transição de uma fase em que os processadores tentavam alcançar clocks cada vez mais altos para uma fase em que o que importa mesmo é como podem ser melhor aproveitados esses clocks. Deixou de ser necessário atingir velocidades de processamento superiores aos 2 GHz, mas passou a ser obrigatório que cada chip possua mais de um núcleo com essas frequências.
Chegaram ao mercado os processadores que simulavam a existência de dois núcleos de processamento, depois os que realmente apresentavam dois deles. Hoje, há processadores que apresentam quatro núcleos, e outros, utilizados por servidores, que já oferecem oito. Com tanta potência executando tarefas simultâneas, surgiu uma nova necessidade.
Processamento verde
Sabe-se que, quanto mais tarefas sendo executadas por um computador, mais energia elétrica seja consumida. Para combater essa máxima, as empresas fabricantes de chips passaram a pesquisar formas de reduzir o consumo, sem diminuir as capacidades de seus componentes. Foi então que nasceu o conceito de “Processamento Verde”.
Por exemplo: os processadores Intel Core Sandy Bridge são fabricados com a microarquitetura reduzida, fazendo com que os clocks sejam mais curtos e menos energia elétrica seja gasta. Ao mesmo tempo, esses processos são mais eficazes. Logo, a realização de tarefas com esse tipo de componente é boa para o usuário e também para o meio ambiente.

Fonte da imagem: divulgação/Intel
Outro elemento envolvido nessas conceituações é o processo de montagem. As fabricantes buscam, incessantemente, formas de reduzir o impacto ambiental de suas indústrias. Os notebooks, por exemplo, estão sendo criados com telas de LED, muito menos nocivos à natureza do que LCDs comuns.
.....
Não sabemos ainda quando surgirá a sexta geração de computadores. Há quem considere a inteligência artificial como sendo essa nova geração, mas também há quem diga que robôs não fazem parte dessa denominação. Porém, o que importa realmente é perceber, que ao longo do tempo, o homem vem trabalhando para melhorar cada vez mais suas máquinas.
Quem imaginava, 60 anos atrás, que um dia seria possível carregar um computador na mochila? E quem, hoje, imaginaria que 60 anos atrás seria necessário um trem para carregar um deles? Hoje, por exemplo, já existem computadores de bolso, como alguns smartphones que são mais poderosos que netbooks.
E para você, qual será o próximo passo nessa evolução das máquinas? Aproveite os comentários para dizer o que você pensa sobre essas melhorias proporcionadas ao longo de décadas.
Leia mais em: http://www.tecmundo.com.br/9421-a-evolucao-dos-computadores.htm#ixzz1cTAVMMUY
A história dos sistemas operacionais
Descubra quais os principais sistemas operacionais que marcaram épocaAtualmente, os sistemas operacionais (SO) estão cada vez mais fáceis de usar, possuindo interfaces muito simples e bonitas. Contudo, todas estas funcionalidades não surgiram do nada, foram evoluindo com o tempo. Por exemplo, a bela interface gráfica do Windows Vista é resultado de mais de 20 anos de desenvolvimento, desde as primeiras versões deste SO. Por isso, criamos este artigo que conta a história dos sistemas operacionais, incluindo os principais representantes de cada época.
Sistema operacional não é a maquina
Atualmente, ainda são comuns alguns equívocos em relação ao sistema operacional. Por exemplo, todos alguma vez já ouviram um diálogo como este:
- Que computador você irá comprar?
- Vou comprar o Windows.
Sistema operacional não é a maquina
Atualmente, ainda são comuns alguns equívocos em relação ao sistema operacional. Por exemplo, todos alguma vez já ouviram um diálogo como este:
- Que computador você irá comprar?
- Vou comprar o Windows.
O diálogo acima demonstra um erro muito comum no mundo da informática: pensar que o sistema operacional é a máquina em si. Basicamente, o computador é composto por duas grandes categorias: hardware e software. A primeira delas se refere à parte física da máquina, ou seja, o que pode ser tocado fisicamente. Já a segunda abrange a parte lógica responsável por realizar tarefas, utilizando-se do hardware para a realização de suas tarefas.
Por isso, sistemas operacionais como o Windows, Linux ou o MAC OS, são apenas softwares que gerenciam toda a atividade do hardware, mas não o computador em si. Consequentemente, em um PC que contenha um dos SOs citados acima, quase sempre é possível instalar outro.
Sistemas operacionais primitivos
Primeiramente, vamos tratar sobre a gênese dos sistema operacionais, abordando a forma como eram desenvolvidos nas décadas de cinquenta, sessenta e setenta.
Máquinas que não usavam SO
A primeira geração da computação moderna (1945-1955) não trabalhava com o conceito de sistema operacional propriamente dito, visto que as operações eram setadas através de hardware. Por exemplo, chaves, quilômetros de fios e luzes de aviso, como na foto abaixo do Eniac. Nesse período, era muito comum que a mesma pessoa projetasse, programasse e utilizasse os computadores. A principal implicação desta abordagem é o fato de que era muito difícil criar rotinas programáveis, exigindo trabalho intenso dos operadores de máquinas.
Por isso, sistemas operacionais como o Windows, Linux ou o MAC OS, são apenas softwares que gerenciam toda a atividade do hardware, mas não o computador em si. Consequentemente, em um PC que contenha um dos SOs citados acima, quase sempre é possível instalar outro.
Sistemas operacionais primitivos
Primeiramente, vamos tratar sobre a gênese dos sistema operacionais, abordando a forma como eram desenvolvidos nas décadas de cinquenta, sessenta e setenta.
Máquinas que não usavam SO
A primeira geração da computação moderna (1945-1955) não trabalhava com o conceito de sistema operacional propriamente dito, visto que as operações eram setadas através de hardware. Por exemplo, chaves, quilômetros de fios e luzes de aviso, como na foto abaixo do Eniac. Nesse período, era muito comum que a mesma pessoa projetasse, programasse e utilizasse os computadores. A principal implicação desta abordagem é o fato de que era muito difícil criar rotinas programáveis, exigindo trabalho intenso dos operadores de máquinas.

Programação em Batch
O conceito de sistema operacional apareceu durante a segunda geração da computação moderna (1955 - 1965), através da programação em Batch. Assim, vários comandos já poderiam ser executados em sequência através de cartões perfurados, eliminando parte do trabalho do operador de terminal. Normalmente, um programa era composto por um conjunto de cartões inseridos pelo usuário do sistema, na ordem correta.
Sistemas específicos
Em meados da década de 60, os primeiros sistemas operacionais foram desenvolvidos conforme a evolução da tecnologia da época. Contudo, cada máquina possuía seu próprio SO específico, o que implicava na incompatibilidade de mainframes distintos. Um dos maiores representantes foi o CTSS, criado pela MIT, sendo lançado em 1961 para o computador IBM 7090.

Unix, o primeiro sistema operacional moderno
Visando ao problema da incompatibilidade de SOs de máquinas distintas, um grupo de desenvolvedores da AT&T ciaram o Unix em 1969, sendo o primeiro sistema operacional moderno da computação. É possível afirmar que mais de 90 porcento dos SOs atuais foram influenciados de alguma maneira pelo Unix.
Sua primeira versão foi escrita em linguagem assembly, sendo posteriormente reescrito em C no ano de 1973, linguagem utilizada até os dias de hoje. Este sistema introduziu conceitos muito importantes para a computação: portabilidade, multi-usuário, multi-tarefas e compartilhamento de tarefas.
Durante a década de 70, o Unix foi distribuído gratuitamente (incluindo seu código fonte) para universidades e órgãos governamentais norte-americanos, o que conferiu muita popularidade a este sistema. Sua interface era totalmente em modo texto sem interface gráfica
Em 1977 foi lançado o BSD, sistema operacional fortemente baseado no Unix, focado principalmente para a execução em máquinas específicas de alto desempenho, como o famoso computador VAX, o qual foi uma referência de hardware na época.

Sistemas Operacionais para computadores pessoais
Tanto o Unix quanto o BSD, em suas primeiras versões, foram desenvolvidos para o uso de computadores de grande porte, normalmente em universidades. Contudo, alguns jovens programadores possuíam uma ideia absurda para época: criar sistemas operacionais para o uso de pessoas comuns.
Steve Jobs e a Apple
Um dos primeiros a pensar desta forma foi Steve Jobs, fundador da Apple. Desde a criação de sua empresa, seu principal foco foi a criação de computadores para o dia-a-dia, incluindo sistemas operacionais fáceis de serem operados. O lançamento do Apple I em 1976, um dos primeiros computadores pessoais, foi um marco na história da computação.

Em meados de 1979, Steve Jobs tomou conhecimento sobre o desenvolvimento de um computador totalmente inovador pela Xerox Parc. Em uma vista a esta empresa, ele ficou deslumbrado com Xerox Alto, um PC que possuía uma interface gráfica (GUI) totalmente revolucionária. Pouco tempo depois, a Apple lançou o Lisa, aproveitando todas as ideias gráficas do computador. Não é nem preciso dizer que o sucesso foi estrondoso. Cada versão do Apple possuía um sistema operacional distinto.
Como se não bastasse, o Apple Machintosh foi lançado em 1984, introduzindo o conceito de desktop, utilizando ícones e pastas para representar programas e arquivos do modo como conhecemos hoje. Esta máquina acompanhava o revolucionário e inovador sistema chamado MAC OS. Seu sucesso foi estrondoso em todo EUA, principalmente pela vinculação de seu comercial durante a final do Superbowl do mesmo ano.

Com o passar dos anos, as novas versões do Macintosh e o do MAC OS já não eram mais populares como antes, o que fez com que a Apple perdesse bastante mercado para a Microsoft. No final dos anos 90, o código do Macintosh apresentava muitos problemas, o que obrigou que um novo plano fosse traçado. Em 2001, a Apple surpreendeu o mundo da informática, abandonando o seu próprio código e reescrevendo todo o seu sistema operacional usando o Unix como base. A partir daí, ele passou a se chamar MAC OSX, sistema que continua forte até os dias de hoje.

Leia mais em: http://www.tecmundo.com.br/2031-a-historia-dos-sistemas-operacionais.htm#ixzz1cT9BmEM9
Bill Gates e a Microsoft
Voltando ao final da década de 70, outro jovem programador, chamado Bill Gates, também possuía o desejo de revolucionar o mundo da informática. Em 1975, ele fundou a Microsoft, empresa que possuía como objetivo primário o desenvolvimento de software em linguagem BASIC para o computador Altair da IBM. Com o sucesso dos programas desenvolvidos pela Microsoft, a empresa afirmou que possuía um sistema operacional completo. A IBM se interessou pelo projeto e ambas as organizações afirmaram um contrato, em 1979.
Entretanto, a Microsoft estava com sérios problemas, pois não possuía um sistema operacional de verdade. A solução encontrada foi a compra do SO da Seattle Computer Products pelo valor de $50.000. Muitos o chamam de negócio do século, pois a partir de 50 mil dólares, a Microsoft possui o patrimônio atual avaliado em dezenas de bilhões de dólares.

Após várias melhorias sobre o sistema comprado, a Microsoft lançou MS-DOS em 1982 cuja interface era baseada em modo texto, bastante parecida com a utilizada pelo Unix. Na época, esse SO não chamou tanta atenção, pois o Apple Lisa de Steve Jobs já trabalhava com uma interface gráfica. Tomando conhecimento deste problema, Bill Gates fez uma vista a Apple, com o objetivo básico de conhecer a empresa. Ao final da visita, Gates convenceu Jobs a ser incluído no desenvolvimento do Macintosh.
O objetivo de Gates era maior que isso: copiar a interface gráfica do Machintosh, e foi exatamente isso que aconteceu. No lançamento do novo PC da Apple, Steve Jobs descobriu que a Microsoft estava lançando máquinas no Japão, cujas interfaces eram muito parecida com a do seu computador. Após a quebra da parceria entre os dois, Gates lançou o Sistema Operacional Windows 1.0 em 1985, batendo de frente com o MAC OS.

Após problemas de administração, Jobs foi demitido da Apple, o que desestabilizou a empresa, retornando somente em 1997. Assim, a Microsoft foi ganhando cada vez mais mercado no mercado, lançando o Windows 2.0 em 1987, trazendo melhorias consideráveis na parte visual e no gerenciamento de memória.

Windows 3.0 e 3.11
No início dos anos 90, o mercado de sistemas operacionais sofreu novo boom com o lançamento do Windows 3.0 (1990) e Windows 3.1(1992). Na sua versão 3.0, a memória passou a ser gerenciada de maneira muito mais eficiente, incluindo a melhora substancial na interface gráfica. Foi criado um painel de controle e um gerenciador de arquivos organizado, facilitando todo o trabalho do usuário.
Um dos principais motivos que contribuíram para seu sucesso foi o fato do sistema já vir instalado de fábrica em um grande número de máquinas.

O Windows 3.1, incluindo seu service pack 3.11, trouxe melhorias à versão 3.0, como uma interface de rede melhor desenvolvida. Em 2 meses de lançamento, o 3.1 vendeu 3 milhões de cópias.
Windows 95, 98 e ME
No ano de 1995, foi lançada no mercado a nova versão deste sistema operacional, o Windows 95. Esta versão foi tão importante para informática que acabou definindo o padrão com que o desktop é organizado, o qual ainda é utilizado no Vista. Por exemplo, podemos citar o botão Start, o menu Iniciar, a barra de tarefas e o gerenciador de arquivos Windows Explorer. Após alguns services packs, esta versão passou a suportar a leitura de dispositivos USB, o navegador internet explorer, entre outras funcionalidades.

Dando continuidade a seu antecessor, a nova versão deste sistema foi lançada no ano de 1998, chamada de Windows 98. Apesar de apresentar melhorias em relação ao 95, o SO era um pouco lento e instável. Tais problemas só foram arrumados com o Windows 98 SE (Second Edition), lançado em 1999, que incluía funções avançadas para compartilhamento de rede, suporte integrado a drivers de DVD-ROM, entre outras tarefas
O sucessor, Windows Me, lançado em 2000, foi um dos maiores fracassos na questão de sistema operacional, pois era muita instável. Possuía somente poucas melhoras em relação ao Windows 98 SE. Por isso, logo foi deixado de lado.
Todas as versões apresentadas até aqui usavam o MS-DOS como núcleo do sistema, ou seja, o Windows funcionava como uma espécie de ambiente gráfico. Com o passar do tempo, o uso desta arquitetura tornou-se insuportável, visto que o MS-DOS não conseguia dar conta de processar tantas informações, o que ficou evidente no Windows Me.
Windows XP e Vista
Lançado em 2001, o Windows XP tornou-se um marco na história dos sistemas operacionais, principalmente por trazer muitos recursos totalmente novos. Entre eles é possível citar que o sistema tornou-se muito mais seguro, através da diferenciação de permissões entre administradores e usuários comuns. A estabilidade também é uma de suas fortes características, pois o número de telas azuis diminuíram consideravelmente.

O principal motivo para todo esse avanço é uso do núcleo (kernel) NT como base, que exclui totalmente a necessidade do MS-DOS. Na verdade, o núcleo NT já vem sido usado desde outras versões do Windows lançadas para uso de servidores, como o Windows NT (1993) e Windows 2000 (2000). Contudo, foi somente no XP que esta arquitetura foi lançada para o usuário comum. Para saber mais sobre a definição de núcleo, clique aqui.
Depois de seis anos de espera, a Microsoft lança o Windows Vista, em 2007, que foi muito aguardado pelos usuários. Ao contrário do XP, esta nova versão desapontou o público de uma maneira geral, principalmente por exigir uma máquina muito potente. Somente em computadores top de linha é possível observar vantagens no desempenho do Vista, principalmente pela suporte a multi-core. Seu grande destaque foram os efeitos gráficos de última geração provido pelo pelo Aero e o Flip 3D.

A nova versão deste SO, Windows Seven, já está em desenvolvimento.
Sistemas Operacionais Livres
Até o exato momento, apresentamos a evolução dos principais sistemas proprietários do mercado: Mac OS X e Windows. Agora, vamos focar nos sistemas livres. Apesar de fazer bastante sucesso nos anos 70, o Unix continuou a ser desenvolvido durante toda esta década e a seguinte também. No ano de 1983, um revolucionário programador chamado Richard Stallman criou o projeto GNU, ele afirmava que os softwares deveriam ser desenvolvidos de maneira livre, sem restrições na leitura ou modificação de seus códigos fontes.
Em 1984, o MIT desenvolveu o X Window System, que como o seu nome diz, é um sistema gráfico de Janelas para o Unix. Ele permaneceu proprietário até 1987, quando uma versão opensource foi lançada, sendo incorporada no desenvolvimento deste sistema operacional. Um dos principais objetivos da GNU sempre foi desenvolver a sua própria versão do Unix, através de um Kernel próprio, chamado de GNU Hurd. Contudo, este núcleo possuía muitas falhas de sistema, comprometeu muito o seu desenvolvimento.

O kernel Linux
Visando estas falhas, um programador chamado Linus Torvalds estava desenvolvendo outro kernel para o GNU, chamado de Linux, em. Em seu primeiro lançamento oficial (1991), na versão 0.2, o Linux já possuía mais funcionalidades que o GNU, o que atraiu bastantes desenvolvedores. Pouco tempo depois, o núcleo criado por Torvalds já era o sistema GNU mais usado do mundo.
Além disso, os programadores eram e ainda são livres para utilizar o kernel Linux em seus próprios sistemas, o que acabou gerando as famosas distribuições como conhecemos hoje . As primeiras ficaram conhecidas como Debian e Slackware, ambas lançadas no Ano de 1993. No início, eram difíceis de serem utilizadas, comparadas com os Windows 3.11 e 95, pois exigiam um conhecimento profundo de computação por parte dos usuários.

Com o tempo, as distribuições Linux foram se tornando cada vez mais fáceis de serem utilizadas, principalmente para atrair o usuário comum do computador. Atualmente, utilizar este sistema é tão fácil quanto o Windows, principalmente em distribuições como o Ubuntu.
Conte-nos suas experiências com sistemas operacionais
Caso você tenha experiências interessantes com sistemas operacionais citados ou não neste artigo, sinta-se à vontade para compartilhá-las com a gente.
Leia mais em: http://www.tecmundo.com.br/2031-a-historia-dos-sistemas-operacionais.htm#ixzz1cT9MsVtt
A História dos computadores e da computação
Conheça os principais computadores usados desde a antiguidade até os dias de hoje.Leia mais em: http://www.tecmundo.com.br/1697-a-historia-dos-computadores-e-da-computacao.htm#ixzz1cT9Zn300
Hoje em dia, os computadores estão presentes em nossa vida de uma forma nunca vista anteriormente. Sejam em casa, na escola, na faculdade, na empresa, ou em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, a computação não surgiu nos últimos anos ou décadas, mas sim há mais de 7 mil anos atrás.
Por este motivo, desenvolvemos este artigo, que conta a história e a evolução da computação e dos computadores em geral, desde a antiguidade até os dias de hoje. Desta maneira, você poderá ficar por dentro das principais formas de computação utilizadas pela humanidade. O texto está dividido em 4 partes e irá abordar temas diversos como ábaco: máquina de pascal, lógica de Boole, computadores mainframes, Steve Jobs, Bill Gates, entre vários outros.
Para começar, vamos falar sobre uma forma de calcular muito simples mas que também foi muito útil nas culturas antigas: o ábaco.
Ábaco, a primeira calculadora da história
Muitos povos da antiguidade utilizavam o ábaco para a realização de cálculos do dia-a-dia, principalmente nas áreas de comercio de mercadorias e desenvolvimento de construções civis. Ele pode ser considerado como a primeira máquina desenvolvida para cálculo, pois utilizava um sistema bastante simples, mas também muito eficiente na resolução de problemas matemáticos. É basicamente um conjunto de varetas de forma paralela, que contém pequenas bolas que realizam a contagem.
Seu primeiro registro é datado no ano de 5500 a.c., pelos povos que constituíam a Mesopotâmia. Contudo, o ábaco também foi usado posteriormente por muitas outras culturas: Babilônia, Egito, Grécia, Roma, Índia, China, Japão, etc. Cada um destes povos possui uma versão de específica desta máquina, entretanto, preservando a sua essência original. Seu nome roma antiga era "Calculus", termo de onde a palavra cálcuo foi derivada.
O fato deste instrumento ter sido difundido entre todas estas culturas se deve principalmente a dois fatores. O contato entre povos distintos é o primeiro deles, o que fez com que o ábaco fosse copiado de um lugar para vários outros no mundo. Por outro lado, a necessidade da representação matemática fez com os sistemas de contagens utilizados no cotidiano fossem implementados de forma mais prática.
Sobre as operações matemáticas, ele é bastante útil para a soma e subtração. Já a multiplicação e divisão, o ábaco comum não é muito recomendado, somente algumas versões mais complexas que padrão.
Régua de Cálculo
Durante vários séculos, o ábaco foi sendo desenvolvido e aperfeiçoado, sendo a principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais da época do renascimento necessitavam descobrir maneiras mais eficientes de efetuar cálculos. Logo, em 1638, depois de Cristo, um padre inglês chamado William Oughtred , criou uma tabela muito interessante para a realização de multiplicações muito grandes. A base de sua invenção foram as pesquisas sobre logaritmos, realizadas pelo escocês John Napier.
Por este motivo, desenvolvemos este artigo, que conta a história e a evolução da computação e dos computadores em geral, desde a antiguidade até os dias de hoje. Desta maneira, você poderá ficar por dentro das principais formas de computação utilizadas pela humanidade. O texto está dividido em 4 partes e irá abordar temas diversos como ábaco: máquina de pascal, lógica de Boole, computadores mainframes, Steve Jobs, Bill Gates, entre vários outros.
Para começar, vamos falar sobre uma forma de calcular muito simples mas que também foi muito útil nas culturas antigas: o ábaco.
Ábaco, a primeira calculadora da história

Seu primeiro registro é datado no ano de 5500 a.c., pelos povos que constituíam a Mesopotâmia. Contudo, o ábaco também foi usado posteriormente por muitas outras culturas: Babilônia, Egito, Grécia, Roma, Índia, China, Japão, etc. Cada um destes povos possui uma versão de específica desta máquina, entretanto, preservando a sua essência original. Seu nome roma antiga era "Calculus", termo de onde a palavra cálcuo foi derivada.
O fato deste instrumento ter sido difundido entre todas estas culturas se deve principalmente a dois fatores. O contato entre povos distintos é o primeiro deles, o que fez com que o ábaco fosse copiado de um lugar para vários outros no mundo. Por outro lado, a necessidade da representação matemática fez com os sistemas de contagens utilizados no cotidiano fossem implementados de forma mais prática.
Sobre as operações matemáticas, ele é bastante útil para a soma e subtração. Já a multiplicação e divisão, o ábaco comum não é muito recomendado, somente algumas versões mais complexas que padrão.
Régua de Cálculo
Durante vários séculos, o ábaco foi sendo desenvolvido e aperfeiçoado, sendo a principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais da época do renascimento necessitavam descobrir maneiras mais eficientes de efetuar cálculos. Logo, em 1638, depois de Cristo, um padre inglês chamado William Oughtred , criou uma tabela muito interessante para a realização de multiplicações muito grandes. A base de sua invenção foram as pesquisas sobre logaritmos, realizadas pelo escocês John Napier.

Até este momento, a multiplicação de números muito grandes era algo muito trabalhoso e demorado de ser realizado. Porém, Napier descobriu várias propriedades matemáticas interessantes e as deu o nome de logaritmos. Após, disso, multiplicar valores se tornou uma tarefa mais simples.
O mecanismo do William era consistido de um régua que já possuía uma boa quantidade de valores pré-calculados, organizados em forma que os resultados fossem acessados automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado.
Máquina de Pascal
Apesar da régua de cálculo de William Oughtred ser útil, os valores presentes nela ainda eram pre-definidos, o que não funcionaria para calcular números que não estivessem presentes na tábua. Pouco tempo depois, em 1642, o matemático francês Bleise Pascal desenvolveu o que pode ser chamado da primeira calculadora mecânica da história, a máquina de Pascal.
O mecanismo do William era consistido de um régua que já possuía uma boa quantidade de valores pré-calculados, organizados em forma que os resultados fossem acessados automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado.
Máquina de Pascal
Apesar da régua de cálculo de William Oughtred ser útil, os valores presentes nela ainda eram pre-definidos, o que não funcionaria para calcular números que não estivessem presentes na tábua. Pouco tempo depois, em 1642, o matemático francês Bleise Pascal desenvolveu o que pode ser chamado da primeira calculadora mecânica da história, a máquina de Pascal.

Seu funcionamento era baseado no uso de rodas interligadas, que giravam na realização dos cálculos. A ideia inicial de Pascal era desenvolver uma máquina que realizasse as quatro operações matemáticas básicas, o que não aconteceu na prática, pois ela era capaz apenas de somar e subtrair. Por esse motivo, ela não foi muito bem acolhida na época.
Alguns anos após a Máquina de Pascal, em 1672, o alemão Gottfried Leibnitz conseguiu o que pascal não tinha conseguido, criar uma calculadora que efetuava a soma e a divisão, além da raiz quadrada.
O Advento da programação funcional
Em todas as máquinas e mecanismos mostrados na parte 1, as operações já estavam previamente programadas, não sendo possível inserir novas funções. Contudo, no ano de 1801, o costureiro Joseph Marie Jacquard desenvolveu um sistema muito interessante nesta área.
A indústria de Jaquard atuava no ramo de desenhos em tecidos, tarefa que ocupava muito tempo de trabalho manual. Vendo este problema, Joseph construiu a primeira máquina realmente programável, com o objetivo de recortar os tecidos de forma automática.
Tal mecanismo foi chamado como Tear Programável, pois aceitava cartões perfuráveis com entrada do sistema. Desta maneira, Jaquard perfurava o cartão com a desenho desejado, e a máquina o reproduzia no tecido. A partir desse momento, muitos esquemas foram influenciados pelo Tear, incluindo o que vamos explicar logo abaixo.
A Máquina de Diferenças e o Engenho Analítico
No ano de 1822, foi publicado um artigo científico que prometia revolucionar tudo o que existia até o exato momento, no ramo do cálculo eletrônico. O seu autor, Charles Babbage, afirmou que sua máquina era capaz de calcular funções de diversas naturezas (trigonometria, logaritmos), de forma muito simples. Este projeto possuía o nome de Máquina de Diferenças.
Em todas as máquinas e mecanismos mostrados na parte 1, as operações já estavam previamente programadas, não sendo possível inserir novas funções. Contudo, no ano de 1801, o costureiro Joseph Marie Jacquard desenvolveu um sistema muito interessante nesta área.
A indústria de Jaquard atuava no ramo de desenhos em tecidos, tarefa que ocupava muito tempo de trabalho manual. Vendo este problema, Joseph construiu a primeira máquina realmente programável, com o objetivo de recortar os tecidos de forma automática.
Tal mecanismo foi chamado como Tear Programável, pois aceitava cartões perfuráveis com entrada do sistema. Desta maneira, Jaquard perfurava o cartão com a desenho desejado, e a máquina o reproduzia no tecido. A partir desse momento, muitos esquemas foram influenciados pelo Tear, incluindo o que vamos explicar logo abaixo.
A Máquina de Diferenças e o Engenho Analítico
No ano de 1822, foi publicado um artigo científico que prometia revolucionar tudo o que existia até o exato momento, no ramo do cálculo eletrônico. O seu autor, Charles Babbage, afirmou que sua máquina era capaz de calcular funções de diversas naturezas (trigonometria, logaritmos), de forma muito simples. Este projeto possuía o nome de Máquina de Diferenças.

Houve um grande boom na época por causa disso, pois as ideias aplicadas no projeto estavam muito a frente do seu tempo. Por causa de limitações técnicas e financeiras, a Máquina de Diferenças só pôde ser implementada muitos anos depois.
Após um período, no ano de 1837, Babbage lançou uma nova máquina, chamado de Engenho Analítico (Máquina Analítica). Ela aproveitava todos os conceitos do Tear Programável, como o uso dos cartões. Além disso, instruções e comandos também poderiam ser informados pelos cartões, fazendo uso de registradores primitivos. A precisão chegava a 50 casas decimais.
Novamente, ela não pôde ser implementada naquela época, pelo mesmo motivo de limitações técnicas e financeiras. Simplesmente a tecnologia existente não era avançada o suficiente para a execução do projeto. Contudo, a contribuição teórica de Babbage foi tão grande, que muitas de suas idéias são usadas até hoje.
A Teoria de Boole
Se Babbage é o avô da computador do ponto de vista de arquitetura de hardware, o matemático George Boole pode ser considerado o pai da lógica moderna. Boole desenvolveu, em 1847, um sistema lógico que reduzia a representação de valores através de dois algarismos: 0 ou 1.
Em sua teoria, o número “1” tem significados como: ativo, ligado, existente, verdadeiro. Por outro lado, o “O” representava o inverso: não ativo, desligado, não existente, falso. Para representar valores intermediários, como “mais ou menos” ativo, é possível usar dois ou mais algarismos(bits) para a representação. Por exemplo:

Novamente, ela não pôde ser implementada naquela época, pelo mesmo motivo de limitações técnicas e financeiras. Simplesmente a tecnologia existente não era avançada o suficiente para a execução do projeto. Contudo, a contribuição teórica de Babbage foi tão grande, que muitas de suas idéias são usadas até hoje.
A Teoria de Boole
Se Babbage é o avô da computador do ponto de vista de arquitetura de hardware, o matemático George Boole pode ser considerado o pai da lógica moderna. Boole desenvolveu, em 1847, um sistema lógico que reduzia a representação de valores através de dois algarismos: 0 ou 1.
Em sua teoria, o número “1” tem significados como: ativo, ligado, existente, verdadeiro. Por outro lado, o “O” representava o inverso: não ativo, desligado, não existente, falso. Para representar valores intermediários, como “mais ou menos” ativo, é possível usar dois ou mais algarismos(bits) para a representação. Por exemplo:
- 00 – desligado
- 01 – carga baixa
- 10 – carga moderada
- 11 – carga alta
Todo o sistema lógico dos computadores atuais, inclusive o do qual você está usando, usa a teoria de Boole de forma prática. Para mais informações sobre o assunto, visite o seguinte artigo.
Máquina de Hollerith
O conceito de cartões desenvolvidos na máquina de Tear Programável também foi muito útil para a realização do censo de 1890, nos estados unidos. Nessa ocasião, Hermann Hollerith desenvolveu uma máquina que acelerava todo o processo de computação dos dados computados.
Ao invés da clássica caneta para marcar X em “sim” e “não” para perguntas como sexo, idade, os agentes do censo perfuravam estas opções nos cartões. Uma vez os dados coletados, o processo de computação da informação demorou aproximadamente 1/3 do comum. Foi praticamente uma revolução na maneira de se coletar dados.

Aproveitando todo o sucesso ocasionado por sua máquina, Hollerith fundou sua própria empresa, a Tabulation Machine Company, no ano de 1896. Após algumas fusões com outras empresas e anos no comando do empreendimento, Hoolerith veio a falecer. Quando um substituto assumiu o seu lugar, em 1916, o nome da empresa foi alterado para Internacional Business Machine, a mundialmente famosa IBM.
Computadores Pré-modernos
Na primeira metade do século XX, várias computadores mecânicos foram desenvolvidos, sendo que com o passar do tempo, componentes eletrônicos foram sendo adicionados aos projetos. Em 1931, Vannevar Bush implementou um computador com uma arquitetura binária propriamente dita, usando os bits 0 e 1. A base decimal exigia que a eletricidade assumisse 10 voltagens diferentes, o que era muito difícil de ser controlado. Por isso, Bush fez uso da lógica de Boole, onde somente dois níveis de voltagem já eram suficientes.
A segunda guerra mundial foi um grande incentivo no desenvolvimento de computadores, visto que as máquinas cada vez mais estavam se tornando mais úteis em tarefas de desencriptação de mensagens inimigas e criação de novas armas mais inteligentes. Entre os projetos desenvolvidos neste período, o que mais se destacou foi o Mark I, no ano de 1944, criado pela Universidade de Harvard (EUA), e o Colossus, em 1946, criado por Allan Turing.
Na primeira metade do século XX, várias computadores mecânicos foram desenvolvidos, sendo que com o passar do tempo, componentes eletrônicos foram sendo adicionados aos projetos. Em 1931, Vannevar Bush implementou um computador com uma arquitetura binária propriamente dita, usando os bits 0 e 1. A base decimal exigia que a eletricidade assumisse 10 voltagens diferentes, o que era muito difícil de ser controlado. Por isso, Bush fez uso da lógica de Boole, onde somente dois níveis de voltagem já eram suficientes.
A segunda guerra mundial foi um grande incentivo no desenvolvimento de computadores, visto que as máquinas cada vez mais estavam se tornando mais úteis em tarefas de desencriptação de mensagens inimigas e criação de novas armas mais inteligentes. Entre os projetos desenvolvidos neste período, o que mais se destacou foi o Mark I, no ano de 1944, criado pela Universidade de Harvard (EUA), e o Colossus, em 1946, criado por Allan Turing.

Sendo uma das figuras mais importantes da computação, Allan Turing focou sua pesquisa na descoberta de problemas formais e práticos que poderiam ser resolvidos através de computadores. Para aqueles que apresentavam solução, foi criada a famosa teoria da “Máquina de Turing”, que através de um número finito de operações, resolvia problemas computacionais de diversas ordens diferentes. A máquina de Turing foi colocada em prática através do Computador Colosssus, citado acima.
Computação moderna
A computação moderna pode ser definida pelo uso de computadores digitais, que não utilizam componentes analógicos com base de seu funcionamento. Ela pode ser dividida em várias gerações:
Primeira Geração (1946 - 1959)
A primeira geração de computadores modernos tinha com principal característica o uso de válvulas eletrônicas, possuindo dimensões enormes. Eles utilizavam quilômetros de fios, chegando a atingir temperaturas muito elevadas, o que frequentemente causava problemas de funcionamento. Normalmente, todos os programas eram escritos diretamente na linguagem de máquina. Existiram várias máquinas dessa época, contudo, vamos focar no ENIAC, que foi a famosa de todas.
ENIAC
No ano de 1946, ocorreu uma revolução no mundo da computação, como o lançamento do computador ENIAC (Electrical Numerical Integrator and Calculator), desenvolvido pelos cientistas norte-americanos John Eckert e John Mauchly. Esta máquina era em torno de 1000 vezes mais rápida que qualquer outra que existia na época.

A principal inovação nesta máquina é a computação digital, muito superior aos projetos mecânicos-analógicos desenvolvidos até o exato momento. Com o ENIAC, a maioria das operações eram realizadas sem a necessidade de movimentar peças de forma manual, mas sim somente pela entrada de dados no painel de controle. Cada operação podia ser acessada através de configurações padrões de chaves e switches.
As dimensões desta máquina são muito grandes, com aproximadamente 25 metros de comprimento por 5,50 m de altura. O seu peso total era de 30 toneladas. Esse valor representa algo como um andar inteiro de um prédio.
Segunda Geração (1959 - 1964)
Na segunda geração, houve a substituição das válvulas eletrônicas por transístores, o que diminiu em muito tamanho do hardware. A tecnologia de circuitos impressos também foi criada, assim evitando que os fios e cabos elétricos ficassem espalhados por todo lugar. É possível dividir os computadores desta geração em duas grandes categorias: supercomputadores e mini-computadores.

O IBM 7030, também conhecido por Strech, foi o primeiro supercomputador lançado na segunda geração, desenvolvido pela IBM. Seu tamanho era bem reduzido comparado com máquinas como o ENIAC, podendo ocupar somente uma sala comum. Ele era utilzado por grandes companhias, custando em torno de 13 milhões de dólares na época.
Esta máquina executava cálculos na casa dos microssegundos, o que permitia até um milhão de operações por segundo. Desta maneira, um novo patamar de velocidade foi atingido. Comparado com os da primeira geração, os supercomputadores, como o IBM 7030, eram mais confiáveis.
Várias linguagens foram desenvolvidas para os computadores de segunda geração, como Fortran, Cobol e Algol. Assim, softwares já poderiam ser criados com mais facilidade Muitos Mainframes (modo como as máquinas dessa época são chamadas) ainda estão em funcionamento em várias empresas no dias de hoje, como na própria IBM.
PDP-8
PDP-8 foi um dos mini-computadores mais conhecidos da segunda geração. Basicamente, foi uma versão mais basica do supercomputador, sendo mais atrativo do ponto de vista financeiro (centenas de milhões de dólares). Eram menores do que os supercomputadores, mas mesmo assim ainda ocupavam um bom espaço no cômodo.
Terceira geração (1964 – 1970)

Um dos principais exemplos da Terceira geração é o IBM 360/91, lançado em 1967, sendo um grande sucesso em vendas na época. Esta máquina já trabalhava com dispositivos de entrada e saída modernos para a época, como discos e fitas de armazenamento, além da possibilidade de imprimir todos os resultados em papel.
O IBM 360/91 foi um dos primeiros a permitir programação da CPU por microcódigo, ou seja, as operações usadas por um processador qualquer poderiam ser gravadas através de softwares, sem a necessidade do projetar todo o circuito de forma manual.
No final deste período, houve um preocupação com a falta de qualidade nos desenvolvimento de softwares, visto que grande parte das empresas estavam só focadas no hardware.
Quarta geração (1970 até hoje)
A quarta geração é conhecida pelo advento dos microprocessadores e computadores pessoais, com a redução drástica do tamanho e preço das máquinas. As CPUs atingiram o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas fossem implementadas agora. Os circuitos acabaram se tornado ainda mais integrados e menores, o que permitiu o desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil foi comprar um computador pessoal. Nesta era, os softwares e sistemas se tornaram tão importantes quanto o hardware.
Altair 8800
O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido como computador até aquela época. Com um tamanho que cabia facilmente em uma mesa e um formato retangular, também era muito mais rápido que os computadores anteriores. O projeto usava o processador 8080 da Intel, fato que propiciou todo esse desempenho.
A quarta geração é conhecida pelo advento dos microprocessadores e computadores pessoais, com a redução drástica do tamanho e preço das máquinas. As CPUs atingiram o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas fossem implementadas agora. Os circuitos acabaram se tornado ainda mais integrados e menores, o que permitiu o desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil foi comprar um computador pessoal. Nesta era, os softwares e sistemas se tornaram tão importantes quanto o hardware.
Altair 8800
O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido como computador até aquela época. Com um tamanho que cabia facilmente em uma mesa e um formato retangular, também era muito mais rápido que os computadores anteriores. O projeto usava o processador 8080 da Intel, fato que propiciou todo esse desempenho.

Com todo o boom do Altair, um jovem programador chamado Bill Gates se interessou pela máquina, criando a sua linguagem de programação Altair Basic. O Altair funcionava através de cartões de entradas e saída, sem uma interface gráfica propriamente dita.
Apple, Lisa e Macintosh

Steve sempre foi conhecido por ter um lado artístico apurado, portanto, em sua opinião, um computador deveria representar de maneira gráfica o seu funcionamento, ao contrário de luzes que acendiam e apagavam. Por isso, o Apple I, lançado em 1976, pode ser considerado como o primeiro computador pessoal, pois acompanhava um pequeno monitor gráfico que exibia o que estava acontecendo no PC. Como o sucesso da máquina foi muito grande, em 1979 foi lançado o Apple II, que seguia a mesma ideia.
Seguindo na mesma linha, com os computadores Lisa (1983) e Macintosh(1984), foram os primeiros a usarem o Mouse e possuírem a interface gráfica como nós conhecemos hoje em dia, com pastas, menus e área de trabalho. Não é um preciso dizer que esses PC tiveram um sucesso estrondoso, vendendo um número enorme de máquinas.
Microsoft e os processadores Intel
Paralelamente a Apple, Bill Gates fundou a Microsoft, que também desenvolvia computadores principiais. No começo de sua existência, no final dos anos 70 e até meados dos anos 80, Gates usou as ideias contidas nas outras máquinas para construir a suas próprias. Utilizando processadores 8086 da Intel, o primeiro sistema operacional da Microsof, MS-DOS, estava muito aquém dos desenvolvidos por Steve Jobs. Por esse motivo, Bill Gates acabou criando uma parceria com Jobs, e após algum tempo, copiou toda a tecnologia gráfica do Macintosh para o seu novo sistema operacional, o Windows.
Desta forma, em meados dos anos 80, O Machintosh e o Windows se tornaram fortes concorrentes. Com a demisão de Steve Jobs da Apple, a empresa acabou muito enfraquecida. Assim, a Microsoft acabou se tornando a líder do mercado de computadores pessoais. Desta aquela época, vários processadores da Intel foram lançados, acompanhados de várias versões de Windows. Entre os modelos da Intel, podemos citar: 8086, 286, 386, 486, Pentium, Pentium 2, Pentium 3, Pentium 4, Core 2 Duo, i7. A AMD entrou no ramo de processadores em 1993, com o K5, lançando posteriormente k6, k7, Atlhon, Duron, Sempron, entre outros.

Todos os computadores pessoais novos que são lançados atualmente, são bastante derivados das idéias criadas pela Apple e pela Microsoft.
Multi-core
Uma das principais tendências dos últimos anos do mercado de desktops é o chamado “multi-core”, que consiste em vários processadores trabalhando paralelamente. Assim, as tarefas podem ser divididas e executadas de maneira mais eficiente. No início da década de 2000, os transístores usados no processador já estavam muito pequenos, causando um aquecimento maior que o normal. Desta maneira, foi necessário dividir a CPU em vários núcleos. Para mais informações, clique aqui.
Computação de Bolso

Entre estes dispositivos, podemos citar primeiramente os celulares, que cada vez mais executam funções existentes nos computadores, possuindo sistemas operacionais completos. Além deles, Palmtops, pendrives, mp3-9, câmeras fotográficas, tvs portáteis.
Na verdade, a principal tendência do futuro, que já está ocorrendo agora, é a união de muitas funcionalidades em um mesmo aparelho. Por isso, após alguns anos, vai ser muito comum que as pessoas tenham somente um único dispositivo portátil, que irá executar todas as tarefas desejadas. O IPhone, da Apple, é o aparelho portátil que se mais aproxima deste dispositivo único.