Este conteúdo origina-se de uma sessão de partilha da IceWhale Technology dentro do FreeS Fund. Tem como objetivo rever as transformações chave, tendências de desenvolvimento, eventos críticos e as constantes subjacentes das exigências dos consumidores da indústria do PC no Vale do Silício nos anos 1980. O artigo é bastante extenso, cobrindo o estado dos chips nos anos 1980, o início e penetração dos PCs, as mudanças nos sistemas DOS e Windows 1.0 de 1980 a 1990, as primeiras aplicações matadoras de PC e cenários de arranque a frio. Esperamos que o leia com paciência, esforçando-se por inspirar as suas decisões de investimento e inovações de produto em hardware e aplicações de IA.
Citando Ray Dalio da Bridgewater Associates:
A ideia de que a história humana tem padrões repetitivos é simplesmente a realidade. Talvez “ciclo” não seja a palavra certa para isto, talvez devesse ser um padrão, mas penso que ambos descrevem o processo.
—— Ray Dalio
A Ascensão do PC, o Processo de Informatização e os Quatro Elementos-Chave
Museu da História do Computador, Vale do Silício dos anos 1980

Apple II – 1977
MOS Technology 6502, 8 bits, cor, mais de 1200 $, 8 ranhuras de expansão
Autor: Rama
Licença: CC BY 2.0

Commodore 64 – 1982
595 $ -> 299 $
Autor: Bill Bertram
Licença: Creative Commons Atribuição-Partilha Igual 2.5
Hoje, enquanto a OpenAI, Google e Microsoft definem a “era da inteligência” baseada em grandes modelos, vamos primeiro recuar à “era da informação” inicial construída com o nascimento do PC em 1976. Foi nesse momento que nasceu o Apple I. Este computador foi lançado por Steve Jobs e Steve Wozniak numa comunidade de geeks chamada Homebrew Computer Club, com o preço de 600 dólares. O lançamento do Apple I no clube foi muito parecido com um projeto de crowdfunding online no Kickstarter hoje em dia. Destinava-se apenas a geeks, exigia montagem manual das peças e vinha em kit… as primeiras vendas foram pouco mais de 200 unidades. Mas este produto lançou as bases da Apple, ajudando Jobs e a sua equipa a acumular o seu primeiro grupo de utilizadores iniciais.
Pouco depois, em 1977, a Apple lançou o Apple II. Esta geração não só era mais refinada na aparência, adicionando ecrã a cores, como também incluía ranhuras de expansão e uma caixa integrada, facilitando a expansão e o DIY para os entusiastas. No entanto, outras especificações principais não mudaram muito. O lançamento do Apple II foi um marco; foi vendido a 1250 dólares, muito abaixo dos computadores comerciais caros da época.
Quatro anos depois, a IBM, alegadamente sob pressão do mercado, enviou uma equipa enxuta de 12 pessoas para lançar um projeto com o codinome “Project Chess”, afirmando a sua posição como líder da indústria. Como empresa líder, naturalmente precisavam de fazer uma declaração forte. Introduziram o IBM PC, baseado num processador Intel, e adotaram uma arquitetura de hardware aberta. Isto abriu a porta para que outros fabricantes criassem dispositivos compatíveis, o que por sua vez promoveu a formação do ecossistema Wintel. A estratégia aberta da IBM levou rapidamente à aceitação do seu padrão PC pelo mercado.
O Commodore 64 em 1982 é outra empresa digna de nota, embora não tenha ido muito longe. Nos seus primeiros dias, acertou várias estratégias-chave. Ofereceu desempenho líder em gráficos e áudio a um preço competitivo de 595 dólares, o que foi bem recebido. Ao mesmo tempo, a Commodore priorizou a expansão no mercado europeu, com mais de metade das suas receitas provenientes da Europa. Aproveitando redes locais de distribuição e publicidade, ganhou rapidamente popularidade, estabelecendo uma base sólida para a sua presença no mercado global de computadores domésticos.
Assim como hoje existem inúmeros subcanais no Reddit para grandes modelos como ChatGPT, LocalLLM e Stable Diffusion, nos primeiros dias de cada era, um grande número de indivíduos talentosos e ideias surgiram de comunidades online e offline. Isto não é estranho ao mundo atual, pois muitos gigantes tecnológicos costumavam frequentar fóruns BBS quando a internet chegou, antes de se dispersarem por várias indústrias. Hoje, a comunidade em torno dos grandes modelos nas melhores universidades tem atributos semelhantes.
Mas o que é mais interessante é que esses clubes tendem a desaparecer gradualmente ao longo de uma década. O padrão é que, quando surge uma nova categoria, ela atrai um grupo de entusiastas muito ativos na comunidade, propondo várias ideias e até criando protótipos iniciais de produtos. À medida que grandes empresas intervêm e a inovação se desloca para a comercialização, as ideias iniciais, de base comunitária, amadurecem e ganham substância. No entanto, essas comunidades frequentemente têm um “destino”: prosperam imenso durante períodos de inovação ativa, mas a sua popularidade desvanece à medida que a indústria amadurece e surgem os gigantes. O Homebrew Computer Club, assim como o desenvolvimento da indústria atual de modelos, impressão 3D e quadricópteros, seguem todos este padrão de “boom e queda”.
![]() Autor: ZyMOS |
O Intel 8088 é um processador clássico lançado em 1979, usado no IBM PC.
|
Em segundo lugar, vamos olhar para os chips dessa época, que foram a base para a categoria PC. A definição de um PC é inseparável da diminuição contínua dos custos dos chips e da potência de computação “suficiente”. Ser adequado para uso e acessível permitiu que os PCs entrassem no mercado de massa. O Intel 8088 é um exemplo típico. O 8088 ajustou a largura do barramento em comparação com o seu predecessor, o 8086, resultando em custos mais baixos, o que lhe permitiu tornar-se o chip central do IBM PC.
Na altura, os principais equipamentos de computação comerciais e militares da IBM eram muito grandes e potentes, mas eram completamente “excessivos” para o mercado pessoal. O 8088, em contraste, foi um passo atrás, oferecendo potência de computação equilibrada a um custo mais baixo, muito parecido com os dispositivos NAS (Network Attached Storage) de hoje que simplificam servidores comerciais para um tamanho e potência de computação adequados para uso doméstico, permitindo que os indivíduos tenham as suas próprias pequenas soluções de computação.
Se o H200 da NVIDIA é o líder comercial hoje, quem está a desenvolver os chips ASIC que vão levar os modelos para vários terminais de computação como PCs de IA ou NAS de IA?
A Evolução dos Sistemas – Cada Geração Garante a Sua “Interface Amigável”
Tal como hoje em dia todas as empresas afirmam ter um “sistema inteligente”

Autor: Vadim Rumyantsev
domínio público
Entusiastas de Tecnologia, Pequenas Empresas
Interface de linha de comandos

Autor: leighklotz
Creative Commons Atribuição 2.0 Genérico
Utilizadores Empresariais
Primeiro a introduzir uma GUI; Um artigo de luxo com preço de $16.595…

Autor: Eric Chan de Hong Kong
Creative Commons Atribuição 2.0
Consumidores em massa, Profissionais Criativos, Educação
Adoção generalizada da GUI
DOS – Sistema Operativo de Disco
Terceiro, vamos olhar para os primeiros sistemas operativos. Tal como hoje em dia as pessoas estão a “ajustar finamente” modelos, era basicamente algo que só os engenheiros podiam mexer. Por volta de 1978-79, apenas cerca de dez mil engenheiros no Silicon Valley trabalhavam com sistemas DOS, que eram totalmente baseados em linha de comandos, sem interface gráfica. Nesta fase, os sistemas operativos estavam longe de penetrar o uso diário das empresas e do público em geral, tal como os modelos de IA hoje, que ainda estão nas mãos de um grupo de entusiastas de tecnologia.
Só em 1981, com o lançamento do primeiro PC da IBM, é que o sistema DOS começou a ganhar mais atenção, mas ainda era uma versão de linha de comandos sem GUI. Por isso, os cenários de computação naquela altura eram muito semelhantes à IA hoje: exigiam um grande número de entusiastas de tecnologia e engenheiros a ajustar e integrar repetidamente para alcançar aplicações específicas. O que realmente levou os PCs e os sistemas operativos ao nível empresarial foi a interface gráfica de utilizador (GUI) do Xerox Star, que deu início à primeira verdadeira vaga de expansão de utilizadores.
Em 1984, o sistema de interface gráfica lançado pela Apple expandiu ainda mais a base de utilizadores para áreas criativas, educativas e outras áreas profissionais, abrindo lentamente a aplicação em massa dos sistemas operativos. No entanto, durante este período, os sistemas DOS e GUI coexistiram durante muito tempo, com as empresas a manterem dois sistemas separados para servir necessidades diferentes.
O Ecossistema de Aplicações do Início dos Anos 80, o que hoje chamamos de “Aplicações Matadoras”
|
Lotus 1-2-3 – 1982
Autor: Odacir Blanco |
WordPerfect – 1985
Licença: Domínio Público |
Quarto, o ecossistema de aplicações que se desenvolveu gradualmente em paralelo com as capacidades do sistema e do hardware! Aqui estão algumas aplicações representativas e um vislumbre do seu percurso de penetração na revolução da produtividade em PC.
Nestes primeiros sistemas de interface de utilizador, o mercado ainda não tinha atingido uma escala de consumo e era composto principalmente por cenários de produtividade. Algumas aplicações começaram a destacar-se, como o Lotus 1-2-3, um famoso software de gestão financeira e uma versão inicial do Excel. O WordPerfect, lançado em 1985, era usado principalmente nos campos jurídico e académico. No entanto, estas operações de edição não eram feitas através de uma interface gráfica polida, mas dependiam da linha de comandos do DOS. Os trabalhadores do conhecimento precisavam de aprender as operações relevantes da linha de comandos para completar as tarefas de edição.
No campo da investigação académica, a utilização de PCs para a digitalização de documentos e colaboração trouxe enormes melhorias de eficiência. Por isso, em 1988, a taxa de penetração dos PCs na academia era muito elevada para cenários como transferência de ficheiros, comunicação por email e edição de texto. No entanto, só em 1989, com o aumento do poder de computação da CPU e das capacidades de processamento da interface gráfica (GUI), é que começou a ter um impacto significativo em indústrias como a impressão e o design publicitário. Isto é algo semelhante ao que acontece hoje; embora a OpenAI tenha lançado um modelo de vídeo mundial, este ainda não foi aplicado rapidamente a cenários práticos porque a maturação dos recursos computacionais e da tecnologia GUI leva tempo.
|
CorelDRAW – 1989
Designers Gráficos, Indústria de Impressão |
Quicken – 1984
Utilizadores Pessoais, Pequenas Empresas |
Flight Simulator – 1985
Entusiastas de Aviação, Estudantes |
Nos primeiros dias de uma nova plataforma informática, a inovação em aplicações que se aprofunda em cenários verticais ainda tem um valor imenso para a indústria. Se fizermos uma analogia com o presente, acredito que no próximo ano, quando o poder de computação TPU nos PCs estiver pronto e o Windows, como sistema operativo intermédio padrão, puder fornecer um poder de computação AI poderoso para aplicações de camada superior, surgirá um novo conjunto de aplicações para PC relacionadas com AI semelhantes ao Copilot, a funcionar diretamente na edge.
Neste contexto, o Quicken aprofundou ainda mais a experiência em cenários empresariais com base na Lotus. Melhorou a interface de interação e a configurabilidade do sistema DOS original, desenvolvendo-se profundamente para as necessidades da gestão financeira e das pequenas empresas. Isto deu a estas primeiras aplicações um bom espaço para sobreviver.
No entanto, os preços destas aplicações eram bastante elevados. Por exemplo, o Lotus 1-2-3 tinha um preço próximo dos 500 dólares, o que era uma solução muito cara em 1985. Isto indica que os cenários iniciais de produtividade eram principalmente impulsionados por consumidores com forte poder de compra.
Além disso, existiam alguns jogos e simuladores para entusiastas, como o “Flight Simulator” no Windows, que ofereciam funcionalidades de produto mais diversificadas e leves, atraindo novos utilizadores que gostavam de explorar e experimentar. Portanto, podemos ver que o ecossistema inicial do PC foi construído por uma combinação de ferramentas de produtividade intensivas, penetração em pequenas e médias empresas, investigação industrial e académica, e algumas aplicações inovadoras interessantes. No entanto, o cronograma deste processo foi muito longo porque as tecnologias subjacentes DOS e GUI estavam a desenvolver-se relativamente devagar.
Especificamente, fornecedores de aplicações como a Lotus desempenharam um papel fundamental. Eles não eram fornecedores de sistemas operativos; estes últimos concentravam-se em construir a fiabilidade, o agendamento de recursos e a escalabilidade do sistema. No período de 8 a 9 anos entre 1982 e 1990, a Lotus aproveitou a oportunidade para preencher uma lacuna no mercado. A Apple e a Microsoft só começaram a lançar as suas suites Office completas na década de 1990, dando a estas aplicações a nível de sistema uma vantagem de mercado de 7 a 8 anos. Aproveitaram a popularidade do IBM PC e do sistema DOS para entrar rapidamente nos utilizadores empresariais, na contabilidade financeira e noutros campos. Estes utilizadores tinham fortes necessidades de processamento de dados, e a combinação dos novos computadores com o software da Lotus alcançou uma penetração total nestes cenários.
Windows 1.0 e o “Discurso Louco” de Vendas de Ballmer
Regressando a 1985, a quota de mercado da Lotus já ultrapassava os 50%. Perante o seu preço elevado de 495 dólares, não é difícil perceber por que motivo Steve Ballmer, ao promover o Windows 1.0, enfatizou: “Oferecemos um jogo de xadrez, uma folha de cálculo e processamento de imagem por apenas 99 dólares, não 500 ou 600.” Na altura, o preço do software era um ponto de venda muito apelativo no marketing. Ao vender o sistema operativo, software gráfico especializado como o CorelDRAW, algo semelhante ao posterior Photoshop, oferecia aos utilizadores funções profissionais de processamento de imagem.
Lotus 1-2-3
Empresa: Lotus Development Corporation
Contexto: O Lotus 1-2-3 foi desenvolvido pela Lotus Development Corporation, fundada por Mitch Kapor em 1982. O Lotus 1-2-3 foi o primeiro software para o IBM PC a oferecer funções integradas de folha de cálculo, gráficos e gestão de bases de dados, tornando-se rapidamente um dos softwares de aplicação mais populares, especialmente entre utilizadores empresariais.
Perfil do utilizador: Os principais utilizadores eram empresas, especialmente analistas financeiros, contabilistas e gestores. Estes utilizadores normalmente tinham um certo nível de conhecimento técnico e eram muito sensíveis aos dados.
Principais Casos de Utilização: Usado para gestão de dados, modelação financeira complexa, orçamentação, geração de relatórios e várias outras formas de análise de dados. As funcionalidades poderosas do Lotus 1-2-3 fizeram dele a escolha principal para utilização de folhas de cálculo nas empresas.
1983: O Lotus 1-2-3 foi lançado e rapidamente se tornou líder de mercado, especialmente nos compatíveis com IBM PC.
1985: A quota de mercado ultrapassou os 50%, com um preço de 495 dólares.
CorelDRAW
Empresa: Corel Corporation
Contexto: No final dos anos 1980, com a popularização das interfaces gráficas de utilizador (GUIs) e dos computadores pessoais (PCs), os mercados de design gráfico e editoração eletrónica cresceram rapidamente. Os processos tradicionais de design (desenho manual e composição tipográfica) começaram a transitar para o digital.
Perfil do utilizador: Tinham algum conhecimento de design gráfico por computador, mas não eram necessariamente especialistas técnicos.
- Designers e ilustradores profissionais: Precisavam de ferramentas precisas de desenho vetorial para criar ilustrações, logótipos e outros trabalhos de design.
- Profissionais de editoração eletrónica (DTP): Precisavam de combinar texto e gráficos para produzir livros, revistas, materiais promocionais, etc.
- Pequenas e médias empresas e freelancers: Usaram o CorelDRAW para criar logótipos empresariais, anúncios e materiais de marketing sem necessidade de hardware e software de design dedicados e caros.
1989: O CorelDRAW 1.0 foi o primeiro software a combinar design gráfico vetorial e funções de publicação de secretária, e o seu lançamento liderou uma revolução no campo do design gráfico. Esta versão suportava funcionalidades como múltiplas páginas, edição de curvas e processamento de texto.
Do MS-DOS 1.0 adquirido ao Windows + Office
| Tempo | Título | Detalhes |
|---|---|---|
| 1981 | MS-DOS 1.0 | Parceria confirmada com a IBM |
| 1982 | MS-DOS 1.25 | Licenciado para marcas compatíveis de terceiros |
| 1983 | MS-DOS 2.0 Microsoft Word |
Funcionalidade do sistema melhorada Suporte para discos rígidos e estruturas de diretórios |
| 1985 | Windows 1.0 | Adicionou uma interface gráfica por cima do Microsoft MS-DOS |
| 1987 | Windows 2.0 | Melhor suporte gráfico e desempenho Janelas sobrepostas e teclas de atalho |
| 1988 | MS-DOS 4.0 | Introduziu a interface gráfica de utilizador DOS Shell |
| 1989 | Microsoft Office | Forneceu integração de automação de escritório para o Windows |
A ascensão da Microsoft talvez não tenha sido devido aos seus produtos iniciais, mas à sua excelente estratégia empresarial. Desde cedo, a Microsoft demonstrou um aguçado sentido comercial ao adquirir um sistema operativo de terceiros chamado 86-DOS [sim, eles compraram-no…]. Este movimento tornou-os um parceiro importante para a IBM. Mas, surpreendentemente, a Microsoft expandiu-se rapidamente no segundo ano, cooperando com outros fabricantes de hardware, muito parecido com o que acontece hoje, quando a Tesla define padrões da indústria e inúmeras empresas seguem o exemplo, impulsionando todo o ecossistema ODM e o estabelecimento dos padrões AIPC.
Depois de a Microsoft definir o padrão, os fabricantes de hardware começaram a agir. Voltando à atual trajetória dos PCs com IA e aplicações de IA na edge, veremos um grande número de portáteis com 40 TOPS de poder computacional de IA a chegar ao mercado, e a Qualcomm está a fazer movimentos semelhantes. Isto traz novas variáveis: por um lado, o hardware é atualizado, e por outro, a importância do sistema operativo na camada intermédia é destacada. O sistema operativo precisa de alocar eficazmente os 40 TOPS de recursos computacionais para satisfazer as necessidades de muitas aplicações de camada superior. A Microsoft investiu fortemente no desenvolvimento do sistema operativo, não tendo tempo para competir com o Lotus ou o WordPerfect durante muito tempo.
Foi só no terceiro ano que a Microsoft começou a imitar o WordPerfect [o sistema absorve aplicações-chave], e isso continuou até 1989. Durante oito anos, a Microsoft consolidou a sua cobertura de licenciamento a terceiros para o sistema e começou a vender o Windows 1.0 de forma independente em 1985. Vale a pena notar que o Windows 1.0 foi lançado quatro anos completos depois do sistema GUI da Xerox, o que mostra o longo processo de desenvolvimento do sistema operativo. O Windows inicial era principalmente distribuído com dispositivos de hardware, com vendas a atingir dezenas de milhares de unidades nos primeiros dois a três anos, e um envio acumulado de cinco a seis milhões de unidades em oito anos.
A Revolução da Produtividade vs. Cada Casa
Naquela altura, o principal mercado para PCs não se limitava à América do Norte; países desenvolvidos na Europa também importavam estes dispositivos por mar. A base de utilizadores estava principalmente concentrada em cenários de produtividade intensiva. Foi só em 1989, quando começaram a surgir aplicações como o processamento de imagem, que novos casos de uso foram impulsionados. Mesmo com o lançamento dos sistemas GUI, estes não entraram imediatamente no mercado de consumo em massa. A verdadeira entrada nas casas comuns ocorreu por volta de 1994, com a ascensão do navegador Netscape e da internet, quando cada vez mais pessoas que usavam computadores no trabalho começaram a comprar dispositivos para as suas casas.
Este caminho de evolução tecnológica, de uma revolução da produtividade a uma explosão de consumo, é claramente visível na era do PC. Hoje, a informação espalha-se rapidamente, e se a IA pode capacitar todos os cenários de consumo ainda precisa de tempo para ser verificado. Nas fases iniciais, poderemos precisar de prestar mais atenção às mudanças no lado da produção e do fornecimento.
Outro fator chave é a evolução da interação homem-computador. A introdução do rato criou um novo modo de interação homem-computador, que influenciou grandemente a penetração dos PCs. De forma semelhante, podemos refletir sobre a estrutura atual olhando para a trajetória de desenvolvimento da Microsoft. Se a OpenAI de hoje está a validar a possibilidade de um sistema operativo de IA na cloud, então na edge, sem o suporte de um sistema operativo, as aplicações de camada superior terão dificuldades em crescer. Quando o sistema operativo e o hardware alcançarem avanços chave, as aplicações a jusante poderão experimentar um crescimento explosivo.
Hoje, interagimos através de linguagem natural e fluxos de vídeo, e estas novas variáveis também afetarão os cenários de aplicação da IA. Para resumir brevemente, a razão pela qual a Microsoft demorou de 1981 a 1989 a desenvolver o DOS e a GUI em paralelo foi porque precisavam de ser compatíveis com um grande número de dispositivos de hardware. Isto também explica porque Steve Jobs uma vez desprezou o sistema Windows, considerando-o complexo e pouco estético. No entanto, do ponto de vista empresarial, a Microsoft deu passos firmes: desde a aquisição de código e lançamento de uma GUI até ao lançamento do Office oito anos depois do Lotus, consolidaram a sua posição no ecossistema de todas as formas.
Um Vislumbre da Arquitetura Atual do Windows Através da Perspetiva do Windows NT
![]() Diagrama da Arquitetura do Windows NT com componentes traduzidos |
|
Resumo dos Quatro Elementos – Vendo as Variáveis e as Demandas Constantes
Chips, Sistema, Aplicações e Dispositivos
|
Armazenamento/Computação
Controlador |
Sistema
Fundação |
Aplicação
Valor para o utilizador |
Produto
Veículo |
Neste processo, vários elementos-chave merecem destaque. O primeiro é a evolução das unidades de armazenamento e computação. Embora os custos dos primeiros chips e armazenamento tenham diminuído, não caíram significativamente, o que está relacionado com o avanço da Lei de Moore. Hoje, a implementação da computação de borda também se deve ao facto de o desenvolvimento tecnológico ter atingido um certo ponto de viragem.
Em segundo lugar, o sistema operativo, como um middleware importante, assume tarefas-chave como a gestão de recursos e a adaptação de dispositivos. Embora os sistemas iniciais não fossem poderosos, a sua importância era evidente.
Em terceiro lugar, as primeiras aplicações matadoras podiam gerar lucro, mas se não fossem desenvolvidas em profundidade, poderiam eventualmente ser substituídas [o que hoje se chama frequentemente cenários verticais, que exigem profundidade]. Se os fornecedores de aplicações conseguem aprofundar até à camada do sistema operativo é ainda uma questão que vale a pena ponderar.
Em última análise, o valor é capturado por um veículo comercial. Nos primeiros tempos, as pessoas compravam hardware como o veículo, mas com o estabelecimento das plataformas de sistema, a importância do hardware diminuiu relativamente. Na era em que “a plataforma é rei”, o sistema operativo não só partilhou o valor como também fomentou um ecossistema de aplicações rico. Este fenómeno foi também verificado na era da internet móvel.
Podemos mapear estes quatro elementos — hardware, sistema operativo, aplicações e interação humano-computador — para o desenvolvimento atual da IA. Do lado da oferta, devemos pensar por que as pessoas precisam de computadores e por que precisam de modelos de IA. A procura constante é por armazenamento e edição de informação eficientes e convenientes. Cada geração de dispositivos informáticos persegue uma interação humano-computador mais natural e fácil, que é um tema eterno.
Finalmente, a disseminação e partilha de informação são também fatores importantes que impulsionam o desenvolvimento tecnológico. Desde o email inicial até aos navegadores posteriores, a evolução dos métodos de disseminação tem satisfeito as necessidades profundas das pessoas pela digitalização. Hoje, acreditamos geralmente estar numa onda de inteligência, tal como na revolução da informação do passado, e podemos usar padrões históricos para fazer analogias e refletir sobre direções futuras.
- Camada de Fundação Tecnológica (Chave para Armazenamento/Computação): O desenvolvimento de tecnologias de hardware essenciais como processadores (poder de computação) e armazenamento (meios de armazenamento).
- Camada de Plataforma: A plataforma básica do PC, fornecendo interfaces com hardware e um ambiente de execução para aplicações de camada superior.
- Camada de Aplicação: O software de aplicação é a principal motivação para os utilizadores comprarem PCs e é um fator importante para atrair utilizadores a uma determinada plataforma.
- Veículo de Transação: Produtos de hardware são os dispositivos físicos que os utilizadores finais compram, disponíveis para os utilizadores escolherem e adquirirem.
Demanda – Digitalização:
- Retenção: Um meio conveniente para armazenar informação permanentemente.
- Produção: A necessidade constante de eficiência no processamento de texto, dados, imagens e informação em cenários de produtividade.
- Disseminação: A eficiência da colaboração.
Eventos e Tendências Chave Após 1990
| Ano | Evento | Descrição |
|---|---|---|
| 1993 | Lançamento do processador Intel Pentium | Melhoria significativa no desempenho e eficiência da CPU |
| 1998 | Windows 98 e padrão USB 1.1 | Tornou os dispositivos externos plug-and-play |
| 2000 | Intel Pentium 4 | Mainframe de secretária de alto desempenho |
| 2003 | Explosão das aplicações de Internet | MySpace e Facebook, Amazon e eBay |
| 2005 | Vendas de portáteis ultrapassam computadores de secretária pela primeira vez | Plataforma Intel Centrino, integrada com processadores de baixo consumo |
| 2007 | A ascensão dos netbooks | Surgem netbooks baseados em processadores Intel Atom |
| 2011 | Ultrabook | Conceito de ultrabook, portátil vs tablet |
| 2018 | Smartphone | Substituiu outros dispositivos para se tornar a principal computação móvel |
A tabela acima mostra claramente algumas informações muito interessantes! Ao entrar na década de 1990, assistimos ao lançamento do processador Intel Pentium, à explosão das aplicações de internet, ao nascimento do Windows 98 e ao surgimento do USB 1.1, netbooks e ultrabooks. Esta série de inovações tecnológicas delineia a tendência imutável no desenvolvimento dos computadores — a internet entrou verdadeiramente em todas as casas.
Durante este período, as CPUs tornaram-se ainda mais leves, e o advento do USB 1.1 tornou a expansão de periféricos mais conveniente, facilitando a ligação de dispositivos como ratos. A ascensão da internet levou a que um grande número de consumidores começasse a usar dispositivos de computação pessoal. É importante notar que o desenvolvimento do PC mostra uma tendência clara: leveza e portabilidade. Um microcosmo inicial do telemóvel foi o PDA.

Computador de Secretária – 2000

Portátil – 2005

Ultrabook – 2012
As imagens acima são simulações geradas por IA
A revolução dos PDA na década de 1990 oferece uma perspetiva interessante. Embora o tempo seja limitado, não iremos aprofundar aqui. No entanto, uma revisão desta trajetória pode oferecer algumas analogias-chave para o futuro caminho de iteração dos PCs de IA ou dos NAS de IA.
Já discuti isto com colegas da Lenovo. A penetração inicial deles no mercado já envolvia navegadores. Em 2000, a Lenovo lançou um programa que facilitava o acesso à internet por ligação discada, simplificando a configuração e a ligação à rede, permitindo que mais utilizadores acedessem à internet. Isto ajudou-os a capturar rapidamente o mercado. Depois, chegou a era dos computadores de marca.
Uma constante na evolução dos PCs é a mudança para a portabilidade e a finura, permitindo que as pessoas acedam ao mundo digital a qualquer hora e em qualquer lugar. Outra tendência é a transição da produção pesada inicial para a penetração multi-cenário. Então, em que indústrias verticais a IA se irá focar inicialmente? Quando alcançará uma adoção generalizada? Isto está intimamente relacionado com o poder de computação subjacente, o formato do dispositivo e a maturidade do sistema operativo – todos estes fatores estão interligados. Vemos que a segunda metade da era do PC incorpora esta penetração multi-cenário.
Hoje, novas variáveis como GPUs, TPUs e a NPU integrada do RISC-V estão a impulsionar a evolução dos sistemas, e estas mudanças nos sistemas irão permear a camada de aplicação. Quando chegar o momento certo, muitas aplicações nativas de IA interessantes irão surgir, tornando o Copilot local ainda mais poderoso. No entanto, existem muitos elementos-chave na cadeia industrial, exigindo uma consideração profunda e observação das mudanças nos principais intervenientes.
Fatores em Mudança, Tendências Inalteradas
- 1. Portabilidade: De pesado a portátil, menor consumo de energia e dispositivos mais leves – reduzindo significativamente o custo de entrada no mundo digital.
- 2. Multi-cenário: Jogos, desenho, programação e periféricos relacionados – expandindo significativamente os limites das aplicações digitais.
Qual é a Chave para Estabelecer uma Nova Categoria? Dispositivos Especializados vs. Dispositivos de Computação de Uso Geral
Neste processo, percebi uma questão interessante: Como é que o hardware de IA multi-forma de hoje se compara ao desenvolvimento do PC no passado? Quais inovações de dispositivos serão absorvidas pelo PC e quais não? O PC era tão dominante naquela altura, assim como os smartphones, portáteis e computação em nuvem são hoje. Então, em que cenários ocorreu uma divergência entre dispositivos especializados e dispositivos de uso geral, que acabaram por não ser substituídos por um único dispositivo unificado?
Descobri que a consola de jogos lançada pela Nintendo em 1983 usava na verdade o mesmo chip do Apple I e II, mas tornou-se um dispositivo especializado. Até hoje, comprar uma PS5 ou Xbox segue a mesma lógica. Portanto, quando um cenário vertical tem profundidade suficiente nas necessidades informáticas, requisitos do sistema e cenários de aplicação, pode formar uma categoria independente de dispositivos especializados. O PDA de 1999 é outro exemplo. Usava dispositivos relativamente desatualizados e de baixo consumo para satisfazer a necessidade de um assistente digital pessoal. Embora o PDA naquela altura ainda não fosse um telemóvel, apenas uma ferramenta de baixo custo para agendamento e gestão de contactos, era muito mais barato que um PC e ocupava um pequeno ecossistema de dispositivos portáteis, podendo ser visto como um predecessor do telemóvel. Mas não foi completamente substituído pelos portáteis posteriores; em vez disso, o desenvolvimento dos telemóveis ultrapassou-o.
Entre 1980 e 2000, surgiu um dispositivo informático único e unificado na indústria dos computadores? A palavra-chave é “profundidade do cenário.”

NES – 1983
MOS Technology 6502

PDA – 1999
Motorola DragonBall 16 MHz
A fronteira entre dispositivos especializados e de uso geral inspira-nos a pensar: quais dos dispositivos inteligentes de IA atuais serão engolidos pelos telemóveis com IA, e quais irão divergir independentemente para novas categorias como brinquedos com IA? Em termos de profundidade do cenário e investimento em ativos, podemos usar consolas de jogos e PDAs como analogias para um pensamento aprofundado.
A propósito, os primeiros processadores de 8 bits tinham um desempenho informático que não se compara aos processadores ARM atuais; eram comparáveis ao controlador de ecrã do seu frigorífico ou micro-ondas doméstico. Um computador de 1980 estava essencialmente ao nível informático do seu frigorífico doméstico. O ponto é: olhando para trás, não era tão poderoso como se poderia imaginar, mas lançou as bases para toda a indústria dos PC e o desenvolvimento da internet.
| Dimensão de Comparação | PDA | PC em 1999 |
|---|---|---|
| Potência de Computação | Processador de baixo desempenho (ex.: Motorola DragonBall 16 MHz), 2-16 MB de RAM, espaço de armazenamento limitado; capacidades fracas de processamento gráfico e multimédia. | Processador de alto desempenho (ex.: Intel Pentium III 500 MHz); 64-256 MB de RAM, 10-20 GB de capacidade de disco rígido; capacidades poderosas de processamento gráfico e multimédia. |
| Custo | Intervalo de preços: 200 a 600 dólares; Principalmente para Gestão de Informação Pessoal (PIM), alta relação custo-benefício. |
Intervalo de preços: 1000 a 2000 dólares; Fornece funções informáticas abrangentes, ampla gama de aplicações, alta relação custo-benefício. |
| Consumo de energia | Design de baixo consumo, alimentado por bateria; Longa duração da bateria, consumo de energia de algumas centenas de miliwatts a alguns watts. |
Alto consumo de energia, tipicamente 100-300 watts; Requer alimentação contínua, pouca portabilidade. |
| Cenários de Aplicação | Gestão de agendas, gestão de contactos, listas de tarefas; Processamento simples de texto, notas, email; enfatiza portabilidade e imediatismo. |
Trabalho de escritório (processamento de texto, folhas de cálculo); Entretenimento (jogos, música, filmes); Navegação na internet e comunicação, desenvolvimento de software, design gráfico, etc. |
| Portabilidade | Pequeno tamanho, peso leve; fácil de transportar e usar a qualquer hora e em qualquer lugar. | Grande tamanho, peso elevado; para uso num local fixo, não fácil de transportar. |
PCs de IA atuais, Aplicações e Novas Oportunidades
Voltando ao presente, embora os elementos da cadeia industrial tenham mudado, o que permanece inalterado é a necessidade das pessoas de reter, produzir e disseminar dados. A um nível abstrato, as necessidades das pessoas estão a mudar das operações GUI para precisar de um concorrente ou um agente inteligente para completar automaticamente código ou tarefas. O que permanece constante deve ser a necessidade de adquirir e armazenar informação. Com a implementação do Copilot, os criadores podem inserir algum contexto e deixar a máquina ajudá-los a obter scripts criativos ou a entender o que os seus pares estão a fazer.
Por exemplo, uma empresa pode usar um agente para acompanhar todas as inovações relevantes da indústria em tempo real e gerar automaticamente relatórios semanais. Estas formas de reter e adquirir dados de produção tornar-se-ão mais inteligentes e inteligentes. E o suporte para isto será definitivamente diferente de um PC tradicional; será um dispositivo de computação sempre ligado e em tempo real. No passado, as pessoas precisavam usar um rato e uma GUI para serem produtivas; mas quando a inteligência está diretamente incorporada no dispositivo de computação, ele pode agir de forma independente. Isto significa que a interação humano-computador já não precisa depender de um rato e de um ecrã. Pode enviar-lhe uma tarefa, e ele pode completá-la diretamente.
E o processo de alcançar tudo isto revela um padrão que pode ser visto no microcosmo dos últimos 40 anos. Portanto, estas exigências subjacentes do cenário têm consistência! A nova produtividade impulsionada pelo GPT ainda será dominada por cenários de produtividade nas fases iniciais, tal como o Lotus 1-2-3 na era DOS! Podemos construir sobre esta base, adicionar novas variáveis de produção e encontrar possíveis cenários de aplicação precoce. Combinado com a indústria de jogos mencionada anteriormente, a indústria de processamento de imagem e os métodos de produção, aquisição e disseminação de dados, podemos teoricamente explorar todas as possibilidades.
Retenção: A máquina adquire informação, fornece recomendações personalizadas.
Produção: Os modelos participam na tomada de decisões e auxiliam no processo de produção.
Disseminação: A máquina gere automaticamente a distribuição e disseminação.
Novos Fatores de Produção
Agora, podemos ver quatro novos fatores de produção a começar a emergir: o desenvolvimento de GPUs e TPUs, novos modelos de sistemas operativos, privatização de dados e a quantidade de dados únicos de utilizadores detidos. Quando estes fatores se combinam, podemos assistir ao nascimento de um dispositivo de computação totalmente novo “integrado de computação e armazenamento”. A sua posição é diferente da dos telemóveis, portáteis e até da cloud pública. Vou tentar listar as suas características claramente numa tabela.
Dados Privados |
Modelos Grandes |
Poder de Computação GPU/TPU |
Aplicações |
|
|
|
|
Autor: Brian Kerrigan |
- Dados Privados: Recursos de dados proprietários de alta qualidade dentro de uma organização ou dados adquiridos privadamente por máquinas são ativos chave para treinar e otimizar modelos de IA.
- Capacidade de Modelo Grande: A capacidade de compreender, gerar e raciocinar, adaptável a várias tarefas e cenários.
- Poder de Computação GPU ou ASIC: Hardware especializado de alto desempenho para inferência.
- Aplicações de IA: Novas aplicações baseadas em LLMs integradas em vários cenários.
Cenários e Operadores – Numa Tabela
| Comparação | Telemóvel | Cloud Privada | Cloud Pública |
|---|---|---|---|
| Aplicação de IA | Leve, Copiloto | Capacidade Privada de Inferência, Agente | OpenAI, Agente |
| Capacidade de Modelo Grande | 3B | 7B – 100B | 405B |
| Desempenho de Computação | Chip Móvel, Baixo Consumo 6W 20 TOPS |
GPU / ASIC, Desempenho Médio-Alto 200W 200 TOPS |
Cluster de Alto Desempenho, Escalabilidade Elástica |
| Sistema Operativo | Android, iOS Execução em Tempo de Execução Acesso Total a Dados |
Sistema Operativo de Cloud Privada Execução de Tarefas em Tempo Real Acesso Total a Dados |
Sistema Específico de Plataforma Cloud Execução de Tarefas em Tempo Real Autorização Parcial |
| Armazenamento de Dados | 2TB | Capacidade Escalável, Centenas de TBs | Capacidade Escalável |
| Duração da Bateria | Bateria Externa 12 Horas |
Ligado à corrente ♾️ |
Ligado à corrente ♾️ |
Devido às limitações da duração da bateria, verificamos que a computação está a tornar-se cada vez mais leve, o que levou aos telemóveis e portáteis atuais. Portanto, a trajetória do desenvolvimento tecnológico tem sido sempre em direção à portabilidade e colaboração, que são exigências de longo prazo das pessoas. Tal como o desenvolvimento do comércio eletrónico, as pessoas procuram marcas de maior qualidade e experiências leves, desejando baterias e telemóveis mais portáteis. No entanto, o poder de computação e a duração da bateria são limitados pelos limites de energia e consumo, o que restringe o nível de inteligência dos modelos que podem ser executados nos dispositivos, atualmente tipicamente ao nível de 3 mil milhões de parâmetros.
Isto significa que, quando o Windows ou o sistema Android de próxima geração estiverem prontos, provavelmente serão baseados em modelos de nível 3B e Copilot, inspirando uma nova geração de aplicações de IA, como navegadores impulsionados por IA, ferramentas de resposta a e-mails, etc. O espaço para estas aplicações é limitado, mas ainda assim serão muito interessantes porque só podem executar modelos de nível 3B nos bastidores. Esta é uma fase que os telemóveis e portáteis inevitavelmente atravessarão porque, do ponto de vista do processo de silício, o poder de computação de IA por watt não mudará drasticamente num curto espaço de tempo.
Por outro lado, existe a computação puramente em nuvem. Mas o problema com a nuvem é: está disposto a entregar os seus dados de plataformas como Notion, Slack e Lark a um fornecedor de nuvem? Ou está disposto a dar a um único fornecedor de serviços de nuvem acesso total às suas contas do Taobao, WeChat e financeiras? Isto obviamente implica um enorme custo psicológico na tomada de decisão. Portanto, a nuvem existirá ao mais alto nível, fornecendo as capacidades do modelo mais inteligente através de chamadas API, penetrando e cobrindo grandes empresas.
Mas, entretanto, surgiu uma oportunidade para construir um novo sistema operativo. Este sistema operativo atuará como um suporte para um agente inteligente, funcionando num dispositivo ligado 24 horas por dia. Pode enviar-lhe tarefas a partir do seu telemóvel ou portátil, e ele executá-las-á automaticamente em segundo plano. Tem uma enorme capacidade de armazenamento de dados e, por não haver limitações de poder de computação, pode ser equipado com uma GPU de nível de cem watts, fornecendo cerca de 200 TOPS de poder de computação de IA. A iteração dos TPUs e NPUs reduzirá ainda mais o custo do poder de computação, semelhante à evolução do chip 8088 inicial.
Com base nisso, pode ser construído um modelo em tempo real, suficientemente inteligente, para servir todos. Mapeados para o presente, estes são os modelos grandes de nível 7B a 100B que todos estão a lançar, que, após quantização, podem funcionar inteiramente numa arquitetura de computação de 200 TOPS. Se houver suporte adequado do sistema operativo, surgirá um ecossistema rico de aplicações de agentes inteligentes. Estes modelos a nível de sistema são afinados, o que frequentemente chamamos modelos edge. Embora a cadeia industrial tenha muitos elementos, este novo dispositivo tem um posicionamento claro. Tal como o portátil que compra, pode iniciar sessão em várias contas sem se preocupar demasiado com questões de segurança de dados, porque é o seu dispositivo de computação pessoal. É suficientemente inteligente para o servir 24 horas por dia.
Criadores, Engenheiros e Trabalhadores do Conhecimento
![]() Criadores |
![]() Freelancers |
![]() Programadores |
Deixando de lado inovações frontais como óculos e auscultadores, no back-end é muito provável que surja um dispositivo de computação pessoal, que transita da produtividade para o uso consumidor. Este é um dispositivo que passa de computação pura para ser integrado de computação e armazenamento. Hoje, a mobilidade de dados e a colaboração são melhoradas, enquanto a procura por poder de computação também aumenta. Um dispositivo integrado de computação e armazenamento torna-se um suporte necessário para um agente inteligente pessoal.
Inicialmente, estes dispositivos podem focar-se em grupos como criadores, engenheiros e trabalhadores do conhecimento para entrar no mercado. Normalmente, têm uma grande quantidade de dados multimédia ricos e necessidades de gestão de ativos, e requerem ferramentas de produtividade para responder às suas dificuldades em armazenamento e colaboração. Isto é semelhante ao caminho de penetração dos primeiros PCs, direcionado a utilizadores dispostos a pagar e com uma forte necessidade de produtividade, entrando assim neste novo campo de batalha.
ZimaCube – A Cloud Privada do Criador
Recentemente realizámos mais entrevistas com inúmeros criadores e profissionais de conteúdo, descobrindo uma gama mais ampla de cenários de aplicação. De facto, esta categoria tem um pipeline muito longo. A abordagem do ZimaCube é mais semelhante à integração vertical da Apple, e precisamos de repensar como avançar em diferentes fases. Atualmente, o NAS (Armazenamento em Rede) serve como suporte para a IA. Tem o seu próprio processo iterativo. Dentro deste processo, estamos a alcançar a comercialização através da integração vertical das soluções de cloud privada dos criadores.
![]() |
![]() |
O hardware não é a barreira, mas o ponto de partida; precisa de uma certa singularidade. |
O sistema e as aplicações servem o cenário. |
O hardware é o ponto de partida; começa com o hardware, mas as aplicações são onde reside o valor do cenário. Um ecossistema aberto de aplicações pode ajudar-nos a absorver várias aplicações emergentes como o Lotus 1-2-3 mais cedo. Não precisamos de nos apressar a investir muitos recursos no desenvolvimento de aplicações; em vez disso, devemos construir uma plataforma e promovê-la através de operações baseadas na comunidade.
Sistema e Aplicações de Terceiros

Mantenha-se aberto, incorpore aplicações principais da comunidade LocalLLM e construa uma App Store com documentação e padrões únicos de aplicação.
A Necessidade de Combinar Sistemas e Comunidades num Contexto Empresarial Global
No entanto, produtos híbridos de hardware e software são de facto difíceis de criar. Na China atual, muitas empresas inovadoras requerem capacidades duplas. Em termos de capacidades organizacionais, por um lado, precisam seguir uma abordagem “waterfall” para a gestão e processos de produção de hardware para controlar custos e riscos; por outro lado, precisam construir uma lógica ágil e iterativa para atualizar sistemas de software semanal ou mensalmente.
As comunidades podem ser um excelente veículo para alimentar as necessidades e feedback dos utilizadores globais de volta aos nossos sistemas de software. O hardware em si pode não exigir atualizações frequentes. Se vender uma power bank, as avaliações da Amazon e a gestão waterfall podem completar a definição do produto e um ciclo de vendas de um ano. Mas hoje, existem poucos nichos para empresas criativas que dependam exclusivamente do fornecimento de hardware. A maioria das categorias que dependem de economias de escala é dominada por gigantes, e não existem novas estruturas de tráfego que possam expandir rapidamente o mercado.
Um Desafio Universal: Um Apelo à Próxima Geração de Construtores de Plataformas
A história mostra que cada era da computação é, em última análise, definida por uma ou poucas plataformas dominantes. Hoje, construir esta nova plataforma é uma oportunidade e desafio partilhados por todos os inovadores a nível global. Isto requer uma capacidade sem precedentes e abrangente que transcende fronteiras:
Integração Profunda de Hardware e Software: Isto exige a fusão perfeita do rigor “waterfall” do desenvolvimento de hardware com a iteração “ágil” do software. A inovação bem-sucedida já não é apenas sobre hardware ou software, mas sobre um “Produto Híbrido” perfeitamente integrado.
Co-construção de Ecossistemas e Comunidades: Tal como o Homebrew Computer Club desencadeou a revolução do PC, as comunidades open-source de hoje (como a LocalLLM) são os berços da próxima geração de “killer apps”. Um sistema fechado pode vencer momentaneamente, mas só um ecossistema aberto pode conquistar o futuro.
Portanto, a lição definitiva dos anos 1980 não é sobre geografia, mas sobre visão. Os vencedores dessa era triunfaram não porque estavam no Vale do Silício, mas porque integraram com sucesso chips, sistemas e aplicações numa plataforma que capacitou as pessoas e inaugurou uma nova era.
Hoje, o palco está montado. Para empreendedores e investidores em todo o mundo, a verdadeira questão não é “onde” inovar, mas “como” organizar eficazmente os novos fatores de produção—dados privados, modelos de IA e poder computacional acessível—numa nova plataforma centrada no ser humano que liberte a criatividade. Isto não é uma atuação individual de qualquer país ou região, mas um esforço global que nos diz respeito a todos, com o objetivo de remodelar o futuro da computação.
Centro de Campanha Zima
Mais para Ler

Rack Pequeno, Grande Homelab: Como um Criador Construiu o microRACK Definitivo
Espaços pequenos merecem uma configuração poderosa. Este microRACK modular para servidores acomoda todo o seu homelab ZimaBoard debaixo da secretária para máxima eficiência.

IceWhale Technology Lança o ZimaCube 2: Uma Potência para Auto-Hospedagem
O ZimaCube 2 da IceWhale é uma plataforma aberta de self-hosting com Intel 12ª Geração, duplo PCIe, Thunderbolt 4 e ZimaOS, disponível em 3...

Caixa Retro Estilo AT para ZimaBoard 2: Construção DIY de Servidor Doméstico com Ecrã Inteligente
Servidores domésticos aborrecidos estragam a estética do seu espaço de trabalho e limitam a criatividade. Construa esta caixa retro ao estilo AT do ZimaBoard...





















