quarta-feira, 25 de abril de 2012

Sistemas Operacionais


 Desde o surgimento dos primeiros computadores eletrônicos, ainda utilizando válvulas em lugar de transitórios ou circuitos integrados, diversas soluções foram desenvolvidas com o objetivo de aumentar a capacidade de processamento e, ao mesmo tempo, facilitar e ampliar o uso dos computadores. O primeiro computador digital totalmente eletrônico (ENIAC) não possuía um sistema operacional. Além disso, toda a programação era efetuada por meio de conexões elétricas e interruptores, o que tornava o processo bastante trabalhoso. O propósito dele era efetuar cálculos de trajetórias basílicas para o governo americano, numa aplicação exclusivamente militar, mas que seria um importante impulso para novos projetos.


O Edvac (Eletronic Discret Variable Automatic Computer), lançado em 1947, foi o primeiro equipamento a utilizar o conceito de programa armazenado como números numa memória eletrônica, adotando as ideias de John Von Neumann.



No final da década de 50, surgia a Fortran (Formula Translator). Uma linguagem de programação desenvolvida especialmente para uso científico por John Backus e sua equipe na IBM (Computer Society, 1996).
Alguns anos depois, em 1960, a IBM lançava uma linguagem de programação para uso em empresas: COBOL (Common Business Oriented Language), uma das linguagens de programação mais usadas comercialmente na história.


À medida que novos avanços foram sendo obtidos, procurando facilitar a leitura de dados e programas e a impressão de informações, as linguagens de programação passaram a ter que lidar com essas novas interfaces.
Os sistemas operacionais surgiram para organizar e facilitar a interação dos programas com tape, drivers, leitoras de cartão e impressoras, dentre outras coisas. Para isso, os sistemas operacionais servem como ma camada intermediária entre os programas e a máquina, organizando como os dados são lidos e as informações impressas.
Existe uma enorme quantidade de sistemas operacionais adequados para cada tipo de sistema de computação encontrado, desde aqueles de menor porte até sistemas de grande porte. Alguns deles são:
- Windows (Microsoft): família de sistemas operacionais (o primeiro lançado em 1985) usada em palmtops (Windows CE), computadores pessoais (Windows XP) e computadores em rede (Windows 2000, Windows Server 2003);
- MacOs (Apple): sistema operacional para computadores pessoais Macintosh e Imac;
- Uníx: sistema operacional criado no início da década de 70, por Ken Thompson, Dennis Ritchie e Douglas Malbroy para o Bel Bals. Ainda é muito usado, tanto na sua forma original (Software Open Source mantido por The Open Group) como em um dos sistemas operacionais derivados dele: BSD, Free BSD, AtheOS, Syllable, Solaris (Sun), /OS (IBM) e Linux;
- Linux: principal sistema operacional derivado do Uníx. É gratuito e Open Source. Atualmente é muito utilizado em computadores de rede e está começando a ser bastante utilizado em computadores pessoais;
- Open VMS (HP): sistema operacional utilizado em minicomputadores e mainframes;
- PalmOS (palm) e COS (computação embutida).









_________________________________________________________________________________
' REFERÊNCIA:
   Côrtes, Pedro Luiz
     Sistemas Operacionais: Fundamentos / Pedro Luiz Côrtes. – São Paulo: Érica 2003.

Softwares

DEFINIÇÃO
As instruções processáveis pelos componentes eletrônicos do sistema de computação, escritas por desenvolvedores e organizadas de forma sequencialmente lógica, são chamadas de softwares.
Organizados em programas e mantidos geralmente nos grandes bancos de dados, os softwares são informações que existem em duas formas básicas: componentes não executáveis em máquina e componentes executáveis em máquina.
Esses componentes são criados por meio de uma série de conversões que mapeiam as exigências do cliente para código executável em máquina.
Um modelo ou protótipo das exigências é convertido num projeto, o qual é convertido numa forma de linguagem de programação que especifica a estrutura de seus dados, os atributos procedimentais e os requisitos relacionados.
Essa forma de linguagem, com vocabulário limitado, gramática explicitamente definida e regras de sintaxe e semântica bem formadas, é processada por um tradutor que a converte em instruções executáveis em máquina.


CLASSIFICAÇÃO
Segundo Pressman, os softwares se classificam em sete categorias, ampliando as três genéricas de Verzello (sistema, linguagem e aplicação), as quais se diferenciam pela complexidade de suas aplicações. São elas:
- Básico: auxilia outros programas;
- Tempo real: monitora, analisa e controla eventos do mundo real;
- Comercial: reestrutura os dados de uma forma que facilita as operações comerciais e as tomadas de decisões administrativas;
- Científico e de engenharia: algoritmos de processamento numérico;
- Embutido: controla produtos e sistemas para os mercados industriais e de consumo;
- Computador pessoal: processamento de textos, planilhas eletrônicas, computação gráfica, diversões, gerenciamento de dados, aplicações financeiras pessoais e comerciais, redes externas ou acesso a banco de dados, etc.;
- Inteligência artificial: algoritmos não numéricos para resolver problemas complexos que não sejam favoráveis à computação ou à análise direta.


EVOLUÇÃO
A primeira família  de linguagem de programação imperativa, desenvolvida a partir da década de
1950 e conhecida globalmente, foi a Fortran (acrônimo da expressão"IBM MathematicalFORmulaTRANslation System").



Sua principais versões foram:
- Fortran II (1958): cartão perfurado com colunas adequadas a programação;
- Fortran IV (1966): programas numericamente intensivos;
- Fortran 77 (1977): alinhamento das linhas do programa;
- Fortran 8X (1980): novos conceitos em programação, fundamentado outros, como a definição de novos tipos de dados, o que permitia ao programador definir estruturas de dados mais adequadas para resolver problemas, alocação dinâmica de dados, subprogramas recursivos;
- Fortran 90: mecanismos para manipulação de arranjos, que não são oferecidos por nenhuma outra linguagem;
- Fortran 95 (1996): próximo ao padrão à linguagem High Performance Fortran ou HPF a qual é voltada para o uso de computadores com arquiteturas avançadas;
- Fortran 2003: controle de exceções e programação orientada a objetos.

Seu primeiro compilador foi desenvolvido para o IBM 704 em 1954/57 por uma equipe da IBM, chefiada por John W. Backus. O compilador era optimizado, pois os autores acreditavam que ninguém iria usar essa linguagem se a sua prestação não fosse comparável com a da
linguagem assembly da época.
A Fortran permite a criação de programas que primam pela velocidade de execução. Com isso, reside seu uso em aplicações científicas computacionalmente intensivas como meteorologia, oceanografia, física, astronomia, geofísica, engenharia e economia, por exemplo.


Outra família de linguagens importante é a Lisp.


As primeiras idéias-chave para a linguagem foram desenvolvidas por John McCarthy em 1956, durante um projeto de pesquisa em Inteligência Artificial (IA), no qual surgiu-se a idéia de desenvolver uma linguagem algébrica para processamento de listas. A primeira implementação dessa linguagem deu-se no inverno de 1958.
 Esforços para a implementação de seus primeiros dialetos foram empreendidos no IBM 704, IBM 7090, DEC PDP-1, DEC PDP-6 e DEC PDP-10. O dialeto principal entre 1960 e 1965 foi o Lisp 1.5. No início dos anos 1970, houve outros dois dialetos predominantes, desenvolvidos através de esforços anteriores: MacLisp e Interlisp.
Linguagem madura, concebida atenciosamente, altamente portável, de força industrial com a qual desenvolvedores em todo o mundo contam para:
- Ferramenta rápida e altamente personalizável para fazer coisas do dia a dia.
- Aplicações grandes, complexas e críticas as quais seriam impossíveis desenvolver em outra linguagem.
- Prototipação rápida e Rapid Application Development (RAD).
- Aplicações de alta disponibilidade, principalmente aquelas que necessitam de mudanças após a etapa inicial.
A linguagem teve um grande sucesso em software do ramo de negócios, engenharia, processamento de documentos, hipermídia (incluindo a Web), matemática, gráficos e animação, Inteligência Artificial e processamento de linguagem natural.
Uma das grandes vantagens de Lisp é que ela trata o programa como dado, possibilitando assim um programa inteiro ser dado como entrada de um outro, coisa que não acontece em outras linguagens como C e Pascal. E usada algumas vezes para definir todos os aspectos de uma aplicação, ou apenas o motor de processamento interno, ou apenas a interface do usuário; e ainda é usada com rotina para prover linguagens de comando interativas, linguagens de macro ou script e linguagens extensoras de sistemas comerciais.


A linguagem de programação de alto nível voltada principalmente para aplicações científicas, foi denominada de Algol ("ALGOrithmic Language", isto é, Linguagem Algorítmica).
As duas características principais do Algol são: a clareza e a elegância da sua estrutura baseada nos blocos e o estilo de sua definição, que usa uma linguagem metalingüística para definir de forma concisa e relativamente completa a sua sintaxe.
Principais Versões:
- Algol 58: primeira proposta da linguagem;
- Algol 60: versão mais conhecida da linguagem de Programação Estruturada (evento-chave na história das linguagens de programação);
- Algol 68: versão bem mais poderosa, porém menos conhecida;
- Elliot Algol: a versão estendida da Burroughs;
- Dcalgol: Data Communications Algol, uma extensão da Burroughs para Algol;
- Algol-W: proposta por Niklaus Wirth, no comitê de transição de Algol 60 para Algol 68: antecessora de Pascal;
- S-algol: Algol com tipos de dados ortogonais, desenvolvido por Ron Morrison;
- Jovial;
- Simula.



Em 1991, na Sun Microsystems, foi iniciado o Green Project, o berço do Java, uma linguagem de programação orientada a objetos.
Os desenvolvedores do projeto eram Patrick Naughton, Mike Sheridan e James Gosling. O objetivo do projeto não era a criação de uma nova linguagem de programação, mas antecipar e planejar a próxima era do mundo digital. Eles acreditavam que, em algum tempo, haveria uma convergência dos computadores com os equipamentos e eletrodomésticos comumente usados pelas pessoas no seu dia-a-dia.
A dinâmica tecnologia Java foi projetada tendo em vista os seguintes objetivos:
- Orientação a objetos - Baseado no modelo de Simula67;
- Portabilidade - Independência de plataforma - "Escreva uma vez, execute em qualquer lugar" ("Write once, run anywhere");
- Recursos de Rede - Possui extensa biblioteca de rotinas que facilitam a cooperação com protocolos TCP/IP, como HTTP e FTP;
- Segurança. Pode executar programas via rede com restrições de execução.
Além disso, podem-se destacar outras vantagens apresentadas pela linguagem:
- Sintaxe similar a C/C++;
- Facilidades de Internacionalização - Suporta nativamente caracteres Unicode;
- Simplicidade na especificação, tanto da linguagem como do "ambiente" de execução (JVM);
- É distribuída com um vasto conjunto de bibliotecas (ou APIs);
- Possui facilidades para criação de programas distribuídos e multitarefa (múltiplas linhas de execução num mesmo programa);
- Desalocação de memória automática por processo de
coletor de lixo;
- Carga Dinâmica de Código (coleção de classes armazenadas independentemente e que podem ser carregadas no momento de utilização).




A maior empresa de software, fenômeno de crescimento e faturamento na economia mundial, é a Microsoft. Fundada em 4 de abril de 1975 por Bill Gates e Paul Allen, na cidade de Albuquerque, Condado de Bernalillo no estado do Novo México, e tem a com sua sede a One Microsoft Way na cidade Redmond, Condado de King no estado de Washington, EUA.



Cibernética
Teoria formada pelos aspectos relevantes de outras quatro teorias: informação, jogos, controle e algoritmo. Oriunda dos diferentes trabalhos de:
- Alan M. Turig: Lógica Das Máquinas;
- Claude Shammon: Teoria Da Informação;
- Ludwig Von Bertalanffy: Teoria Geral Dos Sistemas;
- James Watt: Inventor do regulador centrífugo de pressão nas máquinas á vapor, automatização via - Feedback (realimentação) negativo;
John Von Neumanm: Teoria Matemática Dos Jogos.
A Cibernética juntamente á Teoria da Informação de Shammon abriram um novo caminho para o entendimento entre o homem e a máquina. Ocupando-se de estruturas e funções lógico-matemáticas de autoregulação, construção de computadores e redes telefônicas mais elaboradas, permitindo a autonomia de um sistema (seja um organismo, uma máquina, um grupo social) e, a criação e o desenvolvimento de softwares.   


DESENVOLVENDO SOFTWARES
O processo de desenvolvimento de software é um conjunto de atividades, parcialmente ordenadas, com o objetivo de se obter um produto de qualidade, suprindo as necessidades do cliente.
Esse conjunto da-se da seguinte forma:
- Análise: extração e intensificação dos requisitos de um desejado produto de software, compreendendo o domínio da informação, bem como a função, desempenho e interface exigidos pelo cliente;
- Projeto: processo de múltiplos passos que se concentra em quatro atributos distintos do programa: estrutura de dados, arquitetura de software (representação abstrata do sistema), detalhes procedimentais e caracterização de interface;
 - Implementação (ou codificação): tradução do projeto numa forma legível por máquina, proporcionando a execução mecânica do projeto, quando executada detalhadamente;
- Teste: concentra-se na verificação dos aspectos lógicos internos do software, garantindo que todas as suas instruções funcionam corretamente;
- Manuntenção e melhorias: descoberta de novos problemas e requisitos para uma maior funcionalidade e qualidade do programa.

Os projetos de software, em sua grande parte, não atendem suas expectativas em termos de funcionalidades, custo, ou cronograma de entrega. Dessa forma, não existe um modelo de processo ou metodologia perfeito para todas aplicações, de forma previsível e repetível que melhore a sua produtividade e qualidade.
Alguns tentaram sintetizar e formalizar a tarefa aparentemente incontrolável de escrever um software. Outros, aplicaram técnicas de gerenciamento de projeto na escrita de software.
Dentre esses processos, destacam-se os:
- Cascata (Sequencial): estabelecem os requisitos, os analisam, projetam uma abordagem para solução, arquitetam um esboço do software, implementam o código, testam (inicialmente os testes unitários e então os testes de sistema), implantam e mantêm;
- Iterativo e incremental: prescreve a construção de uma pequena porção, mas abrangente, do projeto para ajudar a todos os envolvidos a descobrir mais rápido os problemas, suposições e/ou falhas que possam a levar a um desastre qualquer;
- Ciclo de vidas;
- Evolucional (Prototipação): especificação, projeto e desenvolvimento de protótipos;
- V-Model: organizado melhor que a Cascata, o qual permite que se compare com outros modelos mais modernos;
- Espiral: evolução através de vários ciclos completos de especificação, projeto e desenvolvimento;
- Componentizado: reuso através de montagem de componentes já existentes;
- RAD;
- Ágeis (Método Formal): abordagens matemáticas para resolver possíveis problemas de software e hardware ao nível de requisito, especificação e projetos. Como por exemplo, Método-B, Redes Petri, RAISE e VDM.




________________________________________________________________________________
' REFERÊNCIAS:
  Filho, Cléuzio Fonseca. História Da Computação: Teoria E Tecnologia
  http://pt.wikipedia.org/wiki/Processo_de_desenvolvimento_de_software
  http://pt.wikipedia.org/wiki/Fortran
  http://pt.wikipedia.org/wiki/Lisp
  http://pt.wikipedia.org/wiki/ALGOL
  http://pt.wikipedia.org/wiki/Java_%28linguagem_de_programa%C3%A7%C3%A3o%29
  http://www.batebyte.pr.gov.br/modules/conteudo/conteudo.php?conteudo=299

Evolução Dos Processadores


   Na primeira metade do século XX surgem as válvulas termiônicas, que baseavam-se no princípio termiônico , utilizando um fluxo de elétrons no vácuo[Fig.1]. Esses equipamentos possibilitaram a criação dos primeiros computadores, como o conhecido ENIAC (Electronic Numerical Integrator Analyzer and Computer), composto por cerca de 18 mil válvulas e capaz de processar 5000 adições, 357 multiplicações e 38 divisões por segundo. Ele foi utilizado para propósitos militares em cálculos de trajetórias de misseis e codificação de mensagens secretas, porem eram extremamente caros e consumiam muita energia e muito espaço.

 Figura 1: Válvula termiônica

                                         

 

   

História


   A criação do transistor anunciou que uma nova era da eletrônica estava surgindo. Comparado as válvulas termiônicas, tecnologia dominante até o momento, o transistor mostrou ser significativamente mais confiável, necessitando de menos energia e, o mais importantemente, podendo ser miniaturizado a níveis quase microscópicos. O primeiro transistor foi criado em Dezembro de 1947 pelos pesquisadores da empresa “Bell Laboratory” anunciando uma nova era da eletrônica de estado sólido.

   Componente básico de um processador,  o transistor é exatamente o avanço na tecnologia de fabricação destes componentes que possibilitou a grandiosa evolução dos processadores.
Os transistores eram feitos de germânio, um semicondutor metálico, porém na década de 50 se descobriu que o silício oferecia uma série de vantagens sobre o germânio. Em 1955, transistores de silício já eram comercializados. Pouco tempo depois passaram a utilizar a técnica de litografia ótica, que faz uso da luz, mascaras e alguns produtos químicos para esculpir o silício na fabricação do transistor, permitindo alcançar níveis incríveis de miniaturização e possibilitando o surgimento do circuito integrado, que são vários transistores dentro do mesmo encapsulamento formando um
sistema lógico complexo. A invenção  do circuito integrado se mantém historicamente como uma das inovações mais importantes da humanidade. Além disso, quase todos os circuitos modernos utilizam essa tecnologia de integração.


Evolução 

“Lei de Moore”
         Em 1965 um dos fundadores da Intel, Gordon Moore, publicou um artigo sobre o aumento da capacidade de processamento dos computadores. Este ficou conhecido como a “Lei de Moore”, Moore afirma que essa capacidade dobraria a cada 18 meses e que o crescimento seria constante e desde então todos os fabricantes de microprocessadores se sentiram na obrigação de dobrar a capacidade de processamento dos seus processadores a cada 18 meses, dando início a corrida pelo desempenho.

1971:
         O primeiro microchip comercial produzido no mundo foi o Intel 4004[Fig.3]  que foi desenvolvido para ser utilizado por uma empresa de calculadoras portáteis, a Japonesa Busicom. O  Intel 4004  possuía controle de teclado, display, impressora e outras funções tudo isso contido em um único chip. Com uma CPU de 4 bits e cerca de 2300 transistores, tinha tanto poder de processamento quanto o ENIAC que  ocupava mais de 900m3 com suas 18.000 válvulas.

Figura 3: Intel 4004
                                   

1973:
         Nasce o Intel 8008, agora com 8 bits implementada sobre as tecnologias TTL MSI e com aproximadamente 3.500 transistores.

1974:
          Menos de um ano depois do lançamento do Intel 8008 a Intel lança o primeiro processador voltado para computadores pessoais. O Intel 8080 possuindo uma CPU de 8bits, porém , uma frequência de operação de 290.000 operações por segundo.

1978:
         Após o sucesso do 8080, a Intel lança o Intel 8086 com 29.000 transistores e performance 10 vezes melhor que seu antecessor . Por volta de 1978 surge a AMD no mercado de micro processadores, deste ano em diante a Intel passa a dividir seu mercado com uma forte concorrente.

1979:
         O Intel 8086 foi seguido em 1979 pelo Intel 8088, uma
versão do 8086 com barramento de 8 bits, então a Intel lança a campanha de arquitetura 8086/8088 como padrão da indústria de computadores. A escolha do Intel 8088 como a arquitetura do primeiro computador pessoal da IBM foi uma grande ajuda para a Intel. Isso fez com que a Intel conseguisse consolidar a especificação da arquitetura 8086/8088 como o padrão mundial.

1982:
         A próxima geração da família Intel 8086 inicia  com o lançamento do novo processador de 16 bits, o Intel 80286, mais conhecido como Intel 286. Ele possuía 134.000 transistores  com frequência máxima de 12MHz.
        Nesse mesmo ano a AMD lança o Am286, modelo baseado no 286 da Intel. Ele também possuia 134.000 transistores mas com frequência máxima  de 16Mhz.

1985:
         A Intel lança a grande inovação da década, o processador de 32bits com 275.000 transistores, o Intel 386 que operava a 5 milhões de instruções por segundo(MIPS) a uma frequência de 33mhz.
         A AMD lança o Am386 com as mesmas características de Intel 386, mas com frequência de 40Mhz.

1988:
         Apesar do Intel 386 ter sido uma revolução na industrias de microprocessadores ele era muito caro  e inviável para um usuário comum. Então a Intel lança o Intel 386SX, vulgarmente chamado de “386 Lite”. Esse representa um novo nível na família Intel.
         A AMD lança uma versão mais acessível aos usuários domésticos.

1989:
         A Intel lança a nova família de processadores Intel 486, com 1.200.000 transistores, agora também integrado com coprocessador matemático de cache L1 e operando em uma frequência de 50MHz.
        Com o 486 da intel, a AMD lança um processador também constituído de coprocessador, porém, com barramento interno de 40MHz. Sendo ele responsável pela popularidade da AMD.

                          
                                                            Processador Intel Pentium.


1993:
         Nasce o grande astro da Intel, o Pentium construído com a tecnologia CMOS de 0.8μm foi o marco do avanço tecnológico, possuindo cerca de 3.100.000 transistores, trabalhando entre 66MHz e 233MHz e executando cerca de 112MIPS .
         Após assistir o lançamento do Pentium, a AMD lança o Am486 com frequência máxima de150MHz e 1.600.000 transistores, no entanto, ele não foi bem aeito pelos consumidores.

1995:
        A Intel lança o Pentium PRO  com a novidade da cache L2, rodava a 200MHz e possuía 5,5 milhões de transistores, sendo o primeiro processador a ser produzido com a tecnologia de 0.35μm. Neste mesmo ano a AMD decide sair da sombra da Intel e introduz
o microprocessador AMD-K5.

1997:
        Em 1997, a AMD sabia que estava perdendo a batalha contra a gigante Intel e resolveu colocar em desenvolvimento um core revolucionário de uma empresa que estava vendendo sua tecnologia, então nasce o AMD-K6 que oferecia desempenho competitivo e sem perder desempenho com cálculo flutuante essencial para jogos e alguma tarefas multimídias.
      Com o sucesso do AMD-K6, a Intel decide antecipar o lançamento do Pentium II.
      Seguindo a Lei de Moore, o crescimento do desempenho dos processadores estava atingindo proporções incríveis, pois o Pentium II possuía 7,5 milhões de transistores produzidos na tecnologia de 0.25μm e também incorporava a tecnologia Intel MMX.
               
1998:
         O Intel Pentium II Xeon e concebido para satisfazer os requisitos de desempenho de médios e grandes servidores e estações de trabalho.
        Neste ano surge o processador AMD-K6-2 que passou a utilizar uma forma mais rápida de soquete 7, agora chamada de super soquete 7.

1999:
         Em 1999 a AMD toma a liderança na corrida pela performance, lançando o AMDK7r, ou AMD Athlon, o primeiro processador com frequência acima de 1GHz. Processadores projetados especificamente do zero para executar sistemas Windows com performance excepcional.
        Como resposta, a Intel lança o Pentium III, que possuía 70 novas instruções, que aumentaram visivelmente o desempenho de gráficos avançados, 3D, streaming de ´áudio, vídeo e aplicações de reconhecimento de voz.

2000:
         No ano 2000 as novas tecnologias desenvolvidas, como a fabricação de transistores com fios de 0.18μm, deram novo folego para a Lei de Moore possibilitaram a criação de processadores muito mais rápidos, com menos consumo de energia e dissipação de calor. Nasce o Pentium 4, com 42 milhões de transistores.

2001 a 2006:
          No período de 2001 a 2006, surgem diversas novas tecnologias e processadores, sempre confirmando a previsão de Gordon Moore . Contudo, a partir de 2001, após o lançamento de novas versões do Pentium 4, a indústria já podia construir processadores com transistores tão pequenos (tecnologia de 0.13μm) que tornou-se muito difícil aumentar o clock por limitações físicas, principalmente porque o calor gerado era tão grande que não podia ser dissipado pelos resfriadores convencionais.

2006:
         A Intel lança sua nova linha de processadores multi core e
deixa o Athlon 64 X2 para traz. Essa nova linha abandona a marca Pentium e passa a utilizar a Core2, trazendo também algumas melhorias que tornariam a Intel novamente a líder de mercado.         As barreiras térmicas que atrasavam o avanço dos processadores levaram os fabricantes a criar novas saídas para continuar desenvolvendo novos produtos com maior poder de processamento que os anteriores. Uma das saídas mais palpáveis foi colocar vários núcleos em um mesmo chip. Esses novos processadores ficaram conhecidos como multi core.

     A Lei de Moore foi a grande responsável pelo vertiginoso crescimento da capacidade de processamento dos processadores. Porém, a competição pela liderança do mercado entre Intel e AMD, as duas maiores empresas do ramo de microprocessadores para computadores pessoais, também contribuiu para essa incrível e rápida evolução.