Minha IBM Efetue login Inscreva-se

A história da unidade central de processamento (CPU)

20 de maio de 2024

10 min de leitura

A unidade central de processamento (CPU) é o cérebro do computador. Ela lida com a atribuição e o processamento de tarefas, além das funções que fazem um computador funcionar.

Não há como enfatizar a importância da CPU para a computação. Praticamente todos os sistemas de computador contêm, pelo menos, algum tipo de CPU básica. Independentemente de serem usadas em computadores pessoais (PCs), notebooks, tablets, smartphones ou mesmo em supercomputadores cuja produção é tão forte que deve ser medida em operações de ponto flutuante por segundo, as CPUs são o único equipamento nos computadores que não pode ser sacrificado. Não importa quais avanços tecnológicos ocorram, a verdade permanece – se você remover a CPU, simplesmente não terá mais um computador.

Além de gerenciar a atividade do computador, as CPUs ajudam a habilitar e estabilizar a relação push-and-pull que existe entre o armazenamento de dados e a memória. A CPU serve como intermediária, interagindo com o armazenamento primário (ou memória principal) quando precisa acessar dados da memória de acesso aleatório (RAM) do sistema operacional. Por outro lado, a memória de somente leitura (ROM) foi criada para o armazenamento de dados permanente e normalmente de longo prazo.

Componentes da CPU

As CPUs modernas em computadores eletrônicos geralmente contêm os seguintes componentes:

  • Unidade de controle: contém circuitos intensivos que conduzem o sistema do computador emitindo um sistema de pulsos elétricos e instruem o sistema a executar instruções computacionais de alto nível.
  • Unidade aritmética/lógica (ALU): executa todas as operações aritméticas e lógicas, incluindo equações matemáticas e comparações baseadas na lógica vinculadas a ações específicas do computador.
  • Unidade de memória: gerencia o uso da memória e o fluxo de dados entre a RAM e a CPU. Também supervisiona o tratamento da memória cache.
  • Cache: contém áreas de memória incorporadas ao chip do processador de uma CPU para atingir velocidades de recuperação de dados ainda mais rápidas do que a RAM.
  • Registros: fornece memória permanente integrada para necessidades de dados constantes e repetidas que devem ser tratadas regular e imediatamente.
  • Relógio: gerencia os circuitos da CPU transmitindo pulsos elétricos. A taxa de entrega desses pulsos é chamada de velocidade do relógio, medida em Hertz (Hz) ou megahertz (MHz).
  • Registro de instrução e ponteiro: exibe a localização do próximo conjunto de instruções a ser executado pela CPU.
  • Barramentos: garante a transferência adequada de dados e o fluxo de dados entre os componentes de um sistema de computador.

Como funcionam as CPUs?

A função da CPU usa um tipo de ciclo de comando repetido administrado pela unidade de controle em conjunto com o relógio do computador, que fornece assistência na sincronização.

O trabalho que uma CPU realiza ocorre de acordo com um ciclo estabelecido (chamado ciclo de instruções da CPU). O ciclo de instruções da CPU designa um certo número de repetições, e esse é o número de vezes que as instruções computacionais básicas serão repetidas, conforme permitido pela capacidade de processamento desse computador.

As instruções computacionais básicas incluem as seguintes:

  • Busca: as buscas ocorrem sempre que os dados são recuperados da memória.
  • Decodificação: o decodificador dentro da CPU traduz instruções binárias em sinais elétricos que interagem com outras partes da CPU.
  • Execução: a execução ocorre quando os computadores interpretam e executam o conjunto de instruções de um programa de computador.

Com alguns ajustes básicos, o relógio do computador dentro de uma CPU pode ser manipulado para manter o tempo mais rápido do que o normal. Alguns usuários fazem isso para que o computador opere em velocidades mais altas. No entanto, essa prática ("overcloking") não é aconselhável, pois pode fazer com que as peças do computador se desgastem mais rápido do que o normal e pode até mesmo violar as garantias do fabricante da CPU.

Os estilos de processamento também estão sujeitos a ajustes. Uma maneira de manipular isso é implementando o pipeline de instruções, que busca incutir paralelismo no nível de instrução em um único processador. O objetivo do pipelining é manter todas as partes do processador envolvidas, dividindo as instruções de entrada do computador e distribuindo-as uniformemente entre as unidades do processador. As instruções são divididas em conjuntos menores de instruções ou etapas.

Outro método para obter paralelismo em nível de instrução dentro de um único processador é utilizar uma CPU chamada de processador superescalar. Embora os processadores escalares possam executar no máximo uma instrução por ciclo de relógio, não há um limite para quantas instruções podem ser enviadas por um processador superescalar. Ele envia múltiplas instruções para várias unidades de execução do processador, aumentando assim o rendimento.

Quem inventou a CPU?

As tecnologias inovadoras geralmente têm mais de uma origem. Quanto mais complexa e revolucionária for essa tecnologia, mais indivíduos geralmente são responsáveis por essa criação.

No caso da CPU, uma das invenções mais importantes da história, estamos falando sobre quem descobriu o computador em si.

Os antropólogos usam o termo "invenção independente" para descrever situações em que diferentes indivíduos, que podem estar localizados a países de distância uns dos outros e em relativo isolamento, cada um apresenta ideias ou invenções semelhantes ou complementares sem saber sobre experimentos semelhantes que estão ocorrendo.

No caso da CPU (ou computador), a invenção independente ocorreu repetidamente, levando a diferentes mudanças evolutivas durante a história da CPU.

Gêmeos gigantes da computação

Embora este artigo não possa homenagear todos os pioneiros da computação, há duas pessoas cujas vidas e trabalhos precisam ser destacados. Ambos tinham uma conexão direta com a computação e a CPU:

Grace Hopper: saudação à "Avó COBOL"

A americana Grace Brewster Hopper (1906-1992) pesava apenas 48 quilos quando se alistou na Marinha dos EUA – 7 quilos abaixo do limite de peso exigido. E, em uma das decisões mais sábias da história marítima dos EUA, a Marinha abriu uma exceção e a aceitou mesmo assim.

O que Grace Hopper não tinha em tamanho físico, ela compensava com energia e brilho versátil. Ela era uma polímata de primeira linha: uma matemática talentosa com um Ph.D. duplo pela Universidade de Yale em matemática e física matemática, uma notável professora de matemática no Vassar College, uma cientista da computação pioneira creditada por escrever uma linguagem de computador e ser autora do primeiro manual de computador, além de comandante naval (em uma época em que as mulheres raramente subiam de cargo administrativo nas forças armadas).

Por causa de seu trabalho nos principais projetos de computação da sua época, como o desenvolvimento do supercomputador UNIVAC após a Segunda Guerra Mundial, Hopper sempre parecia estar no meio da ação, sempre no lugar certo, na hora certa. Ela havia testemunhado pessoalmente grande parte da história da computação moderna. Ela foi a pessoa que originalmente cunhou o termo "bug de computador", por causa de uma mariposa que havia ficado presa dentro de um equipamento do computador. (A mariposa original permanece em exposição no National Museum of American History do Smithsonian Institution em Washington, DC.)

Durante sua experiência trabalhando no projeto UNIVAC (e posteriormente executando o projeto UNIVAC para a Remington Rand Corporation), Hopper estava frustrada por não haver uma linguagem de programação mais simples que pudesse ser usada. Então, ela começou a escrever sua própria linguagem de programação, que veio a ser conhecida como COBOL (um acrônimo para COmmon Business-Oriented Language - Linguagem Comum Voltada aos Negócios).

Robert Noyce: O prefeito do Vale do Silício

Robert Noyce era um impulsionador no sentido clássico dos negócios, uma pessoa que poderia fazer com que atividades incríveis começassem a acontecer apenas por aparecer.

O americano Robert Noyce (1927-1990) foi um inventor talentoso. Mais tarde, ele canalizou sua curiosidade intelectual no seu trabalho universitário de graduação, especialmente depois de ver dois dos transístores originais criados pela Bell Laboratories. Aos 26 anos, Noyce obteve um Ph.D. em física pelo Massachusetts Institute of Technology (MIT).

Em 1959, ele deu continuidade à invenção de Jack Kilby, de 1958, do primeiro circuito integrado híbrido, fazendo ajustes substanciais no projeto original. As melhorias de Noyce levaram a um novo tipo de circuito integrado: o circuito integrado monolítico (também chamado de microchip), que foi formulado usando silício. Logo o chip de silício se tornou uma revelação, mudando setores e moldando a sociedade de novas maneiras.

Noyce foi cofundador de duas corporações extremamente bem-sucedidas durante sua carreira empresarial: a Fair Child Semiconductor Corporation (1957) e a Intel (1968). Ele foi o primeiro CEO da Intel, que ainda é conhecida globalmente por fabricar chips de processamento.

Seu parceiro em ambos os empreendimentos foi Gordon Moore, que ficou famoso por uma previsão sobre o setor de semicondutores que se mostrou tão confiável que parecia quase um algoritmo. Chamada de "Lei de Moore", ela afirmava que o número de transístores a serem usados em um circuito integrado dobra de forma confiável a cada dois anos.

Enquanto Noyce supervisionava a Intel, a empresa produziu o Intel 4004, hoje reconhecido como o chip que iniciou a revolução dos microprocessadores na década de 1970. A criação do Intel 4004 envolveu uma colaboração tripla entre Ted Hoff, Stanley Mazor e Federico Faggin, da Intel, e ele se tornou o primeiro microprocessador a ser oferecido comercialmente.

No final de sua gestão, a empresa também produziu o Intel 8080, o segundo microprocessador de 8 bits da empresa, que apareceu pela primeira vez em abril de 1974. Alguns anos depois, o fabricante lançou o Intel 8086, um microprocessador de 16 bits.

Durante sua ilustre carreira, Robert Noyce acumulou 12 patentes para várias criações e foi homenageado por três presidentes americanos diferentes por seu trabalho em circuitos integrados e pelo enorme impacto global que eles tiveram.

ENIAC: Marcha para a guerra

Parece muito dramático, mas em 1943, o destino do mundo estava realmente em jogo. O resultado da Segunda Guerra Mundial (1939-1945) ainda era bastante incerto, e tanto as forças dos Aliados quanto as do Eixo estavam explorando ansiosamente qualquer tipo de vantagem tecnológica para obter vantagem sobre o inimigo.

Os dispositivos de computador ainda estavam dando os primeiros passos quando um projeto tão monumental quanto o Projeto Manhattan foi criado. O governo dos EUA contratou um grupo de engenheiros da Escola de Engenharia Elétrica Moore da Universidade da Pensilvânia. A missão exigiu que eles criassem um computador eletrônico capaz de calcular quantidades de jardas para tabelas de alcance de artilharia.

O projeto foi liderado por John Mauchly e J. Presper Eckert, Jr. a pedido dos militares. O trabalho no projeto começou no início de 1943 e só terminou 3 anos depois.

A criação produzida pelo projeto – batizada de ENIAC, que significa "Computador e Integrador Numérico Eletrônico – foi uma instalação massiva que exigia 139 m². de espaço, sem mencionar os 17.000 tubos de vácuo de vidro, 70.000 resistores, 10.000 capacitores, 6.000 interruptores e 1.500 relés. Na moeda de 2024, o projeto teria custado USD 6,7 milhões.

Ele podia processar até 5.000 equações por segundo (dependendo da equação), uma quantidade incrível quando visto sob a ótica daquele momento histórico. Devido ao seu tamanho generoso, o ENIAC era tão grande que as pessoas podiam ficar dentro da CPU e programar a máquina refazendo as conexões entre suas unidades funcionais.

O ENIAC foi usado pelo Exército dos EUA durante o restante da Segunda Guerra Mundial. Mas quando esse conflito terminou, a Guerra Fria começou, e o ENIAC recebeu novas ordens de avanço. Desta vez, ele realizaria cálculos que ajudariam a criar uma bomba com mais de mil vezes a força explosiva das armas atômicas que encerraram a Segunda Guerra Mundial: a bomba de hidrogênio.

UNIVAC: De volta aos negócios

Após a Segunda Guerra Mundial, os dois líderes do projeto ENIAC decidiram abrir uma empresa e levar a computação para as empresas americanas. A recém-batizada Eckert-Mauchly Computer Corporation (EMCC) começou a preparar seu principal produto, uma versão menor e mais barata do ENIAC, com várias melhorias, como unidades de fita adicionais, um teclado e um dispositivo conversor que aceitava o uso de cartões perfurados.

Embora mais elegante que o ENIAC, o UNIVAC que foi apresentado ao público em 1951 ainda era gigantesco, pesava mais de 8 toneladas e usava 125 kW de energia. E ainda era caro: cerca de USD 11,6 milhões no dinheiro de hoje.

Em relação à sua CPU, ele tinha a primeira CPU, o UNIVAC 1103, que foi desenvolvida ao mesmo tempo que o restante do projeto. O UNIVAC 1103 usava tubos de vácuo de vidro, o que tornava a CPU grande, difícil de manejar e lenta.

O lote original do UNIVAC 1s foi limitado a uma série de 11 máquinas, o que significa que apenas as maiores, mais bem financiadas e mais bem conectadas empresas ou agências governamentais poderiam ter acesso a um UNIVAC. Quase metade deles eram agências de defesa dos EUA, como a Força Aérea dos EUA e a Agência Central de Inteligência (CIA). O primeiro modelo foi comprado pelo Departamento do Censo dos EUA.

A CBS News tinha uma das máquinas e a usou para prever corretamente o resultado da Eleição Presidencial dos EUA de 1952, contra todas as probabilidades. Foi um golpe publicitário ousado que apresentou ao público americano as maravilhas que os computadores eram capazes de fazer.

Transistores: crescer ao ficar pequeno

À medida que a computação se tornou cada vez mais conhecida e celebrada, seu principal ponto fraco ficou claro. As CPUs tinham um problema contínuo com os tubos de vácuo que estavam sendo usados. Tratava-se, na verdade, de um problema mecânico: os tubos de vácuo de vidro eram extremamente delicados e propensos a quebras rotineiras.

O problema era tão grave que o fabricante fez de tudo para fornecer uma solução alternativa para seus muitos clientes irritados, cujos computadores paravam de funcionar devido à falta de tubos em funcionamento.

O fabricante dos tubos testava regularmente os tubos na fábrica, submetendo-os a diferentes quantidades de uso na fábrica, antes de selecionar os tubos "mais resistentes" desses lotes para serem mantidos em reserva e prontos para solicitações emergenciais dos clientes.

O outro problema com os tubos de vácuo nas CPUs envolvia o tamanho da própria máquina de computação. Os tubos eram volumosos e os projetistas buscavam uma forma de obter a capacidade de processamento dos tubos em um dispositivo muito menor.

Em 1953, um estudante de pesquisa da Universidade de Manchester mostrou que era possível criar um computador totalmente baseado em transístores (link externo ao site ibm.com).

Era difícil trabalhar com os transistores originais, em grande parte porque eram feitos de germânio, uma substância difícil de purificar e que precisava ser mantida dentro de uma faixa de temperatura precisa.

Os cientistas da Bell Laboratory começaram a fazer experimentos com outras substâncias em 1954, incluindo silício. Os cientistas da Bell (Mohamed Italia e Dawn Kahng) continuaram refinando seu uso de silício e, por volta de 1960, encontraram uma fórmula para o moderno transistor de efeito de campo de semicondutor de óxido metálico (ou MOSFET ou transistor MOS), que foi celebrado como o "dispositivo mais amplamente fabricado na história", (link externo ao site ibm.com) pelo Computer History Museum. Em 2018, estimava-se que 13 sextilhões de transístores MOS haviam sido fabricados.

O advento do microprocessador

A busca pela miniaturização continuou até que os cientistas da computação criaram uma CPU tão pequena que poderia estar contida dentro de um pequeno chip de circuito integrado, chamado microprocessador.

Os microprocessadores são designados pelo número de núcleos que suportam. O núcleo de uma CPU é o "cérebro dentro do cérebro", e serve como a unidade de processamento físico dentro de uma CPU. Os microprocessadores podem conter vários processadores. Enquanto isso, um núcleo físico é uma CPU embutida em um chip, mas que ocupa apenas um soquete, permitindo que outros núcleos físicos acessem o mesmo ambiente de computação.

Aqui estão alguns dos outros principais termos usados em relação aos microprocessadores:

  • Processadores single-core: os processadores single-core contêm uma única unidade de processamento. Normalmente, eles são marcados por um desempenho mais lento, são executados em um único encadeamento e realizam o ciclo de instruções da CPU um de cada vez.
  • Processadores dual-core: os processadores dual-core são equipados com duas unidades de processamento contidas em um único circuito integrado. Ambos os núcleos são executados ao mesmo tempo, dobrando efetivamente as taxas de desempenho.
  • Processadores quad-core: os processadores quad-core contêm quatro unidades de processamento em um único circuito integrado. Todos os núcleos são executados simultaneamente, quadruplicando as taxas de desempenho.
  • Processadores multi-core: Os processadores multi-core são circuitos integrados equipados com pelo menos dois núcleos de processador, para que possam oferecer desempenho supremo e consumo de energia otimizado.

Principais fabricantes de CPU

Várias empresas agora criam produtos compatíveis com CPUs por meio de diferentes linhas de marcas. No entanto, esse nicho de mercado mudou drasticamente, já que antes atraía vários players, incluindo muitos fabricantes tradicionais (por exemplo, a Motorola). Agora, existem apenas dois players principais: Intel e AMD.

Eles usam diferentes arquiteturas de conjunto de instruções (ISAs). Portanto, enquanto os processadores AMD seguem as dicas da arquitetura Reduced Instruction Set Computer (RISC), os processadores Intel seguem uma arquitetura Complex Instruction Set Computer (CISC).

  • Advanced Micro Devices (AMD): a AMD vende processadores e microprocessadores por meio de dois tipos de produtos: CPUs e APUs (que significa Unidades de Processamento Acelerado). Nesse caso, as APUs são simplesmente CPUs equipadas com placas de vídeo proprietárias da Radeon. Os processadores Ryzen da AMD são microprocessadores de alta velocidade e alto desempenho voltados ao mercado de videogames. Os processadores Athlon eram antes considerados a linha de ponta da AMD, mas a AMD agora os usa como uma alternativa de uso geral.
  • ARM: a ARM, na verdade, não fabrica equipamentos, mas aluga seus valiosos projetos de processadores e/ou outras tecnologias proprietárias para outras empresas que fabricam equipamentos. A Apple, por exemplo, não usa mais chips da Intel nas CPUs Mac, ela fabrica seus próprios processadores personalizados com base nos projetos da Arm. Outras empresas estão seguindo o exemplo.
  • Intel: A Intel vende processadores e microprocessadores por meio de quatro linhas de produtos. Sua linha premium é a Intel Core, que inclui modelos de processadores como o Core i3. Os processadores Xeon da Intel são comercializados para escritórios e empresas. As linhas Celeron e Intel Pentium da Intel (representadas por modelos como as CPUs single-core Pentium 4) são consideradas mais lentas e menos potentes do que a linha Core.

Entendendo o papel confiável das CPUs

Ao considerarmos as CPUs, podemos pensar nos vários componentes que as CPUs têm e utilizam. Também podemos refletir sobre a evolução do design das CPUs, que passou de seus primeiros experimentos gigantes para seu período moderno de miniaturização.

Mas, apesar de todas as transformações nas suas dimensões ou aparência, a CPU continua sendo ela mesma, segue firme no funcionamento, porque ela é muito boa no que faz. Você sabe que pode confiar que ela funcionará corretamente todas as vezes.

A computação inteligente depende da existência de um equipamento adequado no qual você possa confiar. A IBM cria seus servidores de forma robusta para resistir a quaisquer problemas que o ambiente de trabalho moderno possa lhes causar. Encontre os servidores IBM de que você precisa para obter os resultados dos quais sua organização depende.

 

Autor

Phill Powell

Staff Writer