Detta innehåll kommer från en delningssession av IceWhale Technology inom FreeS Fund. Syftet är att granska de viktiga omvandlingarna, utvecklingstrenderna, kritiska händelserna och de underliggande konstanta konsumentbehoven i Silicon Valleys PC-industri på 1980-talet. Artikeln är ganska lång och täcker tillståndet för chip på 1980-talet, starten och genomslaget för PC, förändringarna i DOS och Windows 1.0-systemen från 1980 till 1990, tidiga PC killer-appar och kallstartsscenarier. Vi hoppas att du kan läsa den tålmodigt, med målet att inspirera dina investeringsbeslut och produktinnovationer inom AI-hårdvara och applikationer.
Jag lånar ett citat från Ray Dalio på Bridgewater Associates:
Idén att mänsklig historia har återkommande mönster är bara verklighet. Kanske är ”cykel” inte rätt ord för detta, kanske borde det vara ett mönster, men jag tror att båda beskriver processen.
—— Ray Dalio
PC:ns uppgång, informatifieringsprocessen och de fyra nyckelelementen
Computer History Museum, Silicon Valley på 1980-talet

Apple II – 1977
MOS Technology 6502, 8-bit, färg, 1200 $+, 8 expansionsplatser
Författare: Rama
Licens: CC BY 2.0

IBM PC – 1981
Intel 8088, 16-bit, 16 MHz, 1500 $
Författare: Rama & Musée Bolo
Licens: CC BY-SA 2.0 fr

Commodore 64 – 1982
595 $ -> 299 $
Författare: Bill Bertram
Licens: Creative Commons Erkännande-Dela Lika 2.5
Idag, när OpenAI, Google och Microsoft definierar ”intelligensens era” baserat på stora modeller, låt oss först gå tillbaka till den tidiga ”informationstiden” som byggdes upp av PC:ns födelse 1976. Det var ögonblicket då Apple I föddes. Denna dator lanserades av Steve Jobs och Steve Wozniak i en entusiastgemenskap kallad Homebrew Computer Club, med ett pris på 600 dollar. Lanseringen av Apple I i klubben liknade mycket ett online crowdfunding-projekt på Kickstarter idag. Den riktade sig endast till entusiaster, krävde manuell montering av delar och levererades som ett byggsats… de tidiga försäljningssiffrorna var bara lite över 200 enheter. Men denna produkt lade grunden för Apple och hjälpte Jobs och hans team att samla sin första grupp av användare.
Strax därefter, 1977, släppte Apple Apple II. Denna generation var inte bara mer förfinad i utseende, med färgskärm, utan inkluderade också expansionsplatser och ett integrerat chassi, vilket gjorde det enklare för entusiaster att bygga ut och göra själv. Däremot förändrades inte de andra kärnspecifikationerna mycket. Lanseringen av Apple II var en milstolpe; priset var 1250 dollar, långt under de dyra kommersiella datorerna på den tiden.
Fyra år senare, enligt uppgift under marknadspress, skickade IBM ett slimmat team på 12 personer för att lansera ett projekt med kodnamnet ”Project Chess” och befästa sin position som branschledare. Som ledande företag behövde de naturligtvis göra ett starkt uttalande. De introducerade IBM PC, baserad på en Intel-processor, och antog en öppen hårdvaruarkitektur. Detta öppnade dörren för andra tillverkare att skapa kompatibla enheter, vilket i sin tur främjade bildandet av Wintel-ekosystemet. IBMs öppna strategi ledde snabbt till att dess PC-standard accepterades av marknaden.
Commodore 64 från 1982 är ett annat företag värt att nämna, även om det inte gick så långt. I sina tidiga dagar gissade det rätt på flera nyckelstrategier. Det erbjöd ledande grafik- och ljudprestanda till ett konkurrenskraftigt pris på 595 dollar, vilket mottogs väl. Samtidigt prioriterade Commodore att expandera på den europeiska marknaden, där mer än hälften av intäkterna kom från Europa. Genom att utnyttja lokala distributionsnätverk och reklam blev det snabbt populärt och lade en stabil grund för sin närvaro på den globala hemdatormarknaden.
Precis som det idag finns många underkanaler på Reddit för stora modeller som ChatGPT, LocalLLM och Stable Diffusion, uppstod i varje eras början ett stort antal talangfulla individer och idéer från online- och offline-gemenskaper. Detta är inte så främmande för världen idag, eftersom många teknikjättar brukade hänga i BBS-forum när internet först kom, innan de spreds ut i olika branscher. Idag har gemenskapen kring stora modeller vid toppuniversitet liknande egenskaper.
Men det som är ännu mer intressant är att sådana klubbar tenderar att gradvis försvinna över ett decennium. Mönstret är att när en ny kategori uppstår, drar den till sig en grupp entusiaster som är mycket aktiva i gemenskapen, föreslår olika idéer och till och med skapar tidiga produktprototyper. När stora företag går in och innovationen skiftar mot kommersialisering, mognar de tidiga gräsrotsidéerna som fötts i gemenskapen gradvis och får substans. Dessa gemenskaper har dock ofta ett ”öde”: de blomstrar extremt under perioder av aktiv innovation, men deras popularitet avtar när branschen mognar och jättar träder fram. Homebrew Computer Club, liksom utvecklingen av dagens modellindustri, 3D-utskrift och quadcopters, följer alla detta ”boom-och-bust”-mönster.
![]() Författare: ZyMOS |
Intel 8088 är en klassisk processor som släpptes 1979 och användes i IBM PC.
|
För det andra, låt oss titta på chipen från den tiden, som var grunden för PC-kategorin. Definitionen av en PC är oskiljaktig från den kontinuerliga minskningen av chipkostnader och "precis tillräcklig" datorkraft. Att vara användbar och prisvärd gjorde att PC:er kunde nå massmarknaden. Intel 8088 är ett typiskt exempel. 8088:an justerade bussbredden jämfört med sin föregångare, 8086:an, vilket resulterade i lägre kostnader och gjorde det möjligt att bli kärnchipet i IBM PC.
På den tiden var IBMs huvudsakliga kommersiella och militära datorutrustning mycket stor och kraftfull, men helt "överdimensionerad" för den personliga marknaden. 8088:an var däremot ett steg nedåt, med balanserad datorkraft till en lägre kostnad, ungefär som dagens NAS-enheter (Network Attached Storage) som förenklar kommersiella servrar till en storlek och datorkraft som passar för hemmabruk, vilket gör det möjligt för individer att ha sina egna små datalösningar.
Om NVIDIA:s H200 är den kommersiella ledaren idag, vem utvecklar då ASIC-chipen som kommer att föra modeller till olika datorplattformar som AI-PC eller AI-NAS?
Systemens utveckling – Varje generation skryter om sitt "användarvänliga gränssnitt"
Precis som varje företag idag påstår sig ha ett "intelligent system"

Författare: Vadim Rumyantsev
offentligt domän
Teknikentusiaster, småföretag
Kommandoradsgränssnitt

Författare: leighklotz
Creative Commons Erkännande 2.0 Generisk
Företagsanvändare
Först med att introducera ett GUI; en lyxartikel prissatt till 16 595 dollar…

Författare: Eric Chan från Hongkong
Creative Commons Erkännande 2.0
Masskonsumenter, kreativa yrkesverksamma, utbildning
Bred spridning av GUI
DOS – Diskoperativsystem
För det tredje, låt oss titta på de tidiga operativsystemen. Precis som hur man idag "finjusterar" modeller, var det i princip något som bara ingenjörer kunde pilla med. Runt 1978-79 arbetade bara ungefär tiotusen ingenjörer i Silicon Valley med DOS-system, som helt och hållet var kommandoradsbaserade utan något grafiskt gränssnitt. Vid denna tidpunkt var operativsystem långt ifrån att tränga in i företags och allmänhetens dagliga användning, ungefär som AI-modeller idag, som fortfarande är i händerna på en grupp teknikentusiaster.
Det var inte förrän 1981, med lanseringen av IBMs första PC, som DOS-systemet gradvis fick mer uppmärksamhet, men det var fortfarande en kommandoradsversion utan GUI. Därför liknade beräkningsscenarierna då mycket dagens AI: de krävde många teknikentusiaster och ingenjörer som upprepade gånger justerade och integrerade för att uppnå specifika tillämpningar. Det som verkligen tog datorer och operativsystem till företagsnivå var Xerox Stars grafiska användargränssnitt (GUI), som inledde den första verkliga vågen av användarutvidgning.
År 1984 utökade Apples grafiska gränssnittssystem användarbasen till kreativa, utbildnings- och andra professionella områden, vilket långsamt öppnade för massanvändning av operativsystem. Under denna period samexisterade dock DOS- och GUI-system länge, där företag underhöll två separata system för att tillgodose olika behov.
Applikationsekosystemet i början av 1980-talet, det vi idag kallar ”killer apps”
|
Lotus 1-2-3 – 1982
Författare: Odacir Blanco |
WordPerfect – 1985
Licens: Public Domain |
För det fjärde, applikationsekosystemet som gradvis utvecklades parallellt med system- och hårdvarufunktionerna! Här är några representativa applikationer och en inblick i deras spridningsväg i PC-produktivitetens revolution.
I dessa tidiga användargränssnittssystem hade marknaden ännu inte nått konsumentnivå och bestod främst av produktivitetsscenarier. Några applikationer började sticka ut, som Lotus 1-2-3, en känd ekonomihanteringsprogramvara och en tidig version av Excel. WordPerfect, som släpptes 1985, användes främst inom juridik och akademi. Dessa redigeringsoperationer gjordes dock inte via ett polerat grafiskt gränssnitt utan förlitade sig på DOS-kommandoraden. Kunskapsarbetare behövde lära sig relevanta kommandoradsoperationer för att slutföra redigeringsuppgifter.
Inom akademisk forskning ledde användningen av datorer för dokumentdigitalisering och samarbete till stora effektivitetsförbättringar. Därför var penetrationsgraden för datorer inom akademin redan 1988 mycket hög för scenarier som filöverföring, e-postkommunikation och textredigering. Det var dock inte förrän 1989, med förbättrad CPU-beräkningskraft och GUI-hanteringsförmåga, som det började få stor påverkan på branscher som tryck och reklamsdesign. Detta liknar dagens situation; även om OpenAI har släppt en videovärldsmodell har den inte snabbt tillämpats i praktiska scenarier eftersom mognaden av beräkningsresurser och GUI-teknik tar tid.
|
CorelDRAW – 1989
Grafiska formgivare, Tryckeribranschen |
Quicken – 1984
Privatanvändare, Småföretag |
Flight Simulator – 1985
Flygentusiaster, Studenter |
I de tidiga dagarna av en ny dataplattform har applikationsinnovation som går på djupet i vertikala scenarier fortfarande ett enormt värde för branschen. Om vi drar en parallell till idag tror jag att nästa år, när TPU-beräkningskraften i PC:er är redo och Windows, som standard mellansystem, kan erbjuda kraftfull AI-beräkningskraft för överliggande applikationer, kommer en ny våg av AI-relaterade Copilot-liknande PC-applikationer att dyka upp och köras direkt på kanten.
I detta sammanhang fördjupade Quicken ytterligare erfarenheten i affärsscenarier baserat på Lotus. Det förbättrade interaktionsgränssnittet och konfigurerbarheten i det ursprungliga DOS-systemet och utvecklades djupt för behoven inom ekonomihantering och småföretag. Detta gav dessa tidiga applikationer goda möjligheter att överleva.
Priserna på dessa applikationer var dock ganska höga. Till exempel kostade Lotus 1-2-3 nästan 500 dollar, vilket var en mycket dyr lösning 1985. Detta visar att tidiga produktivitetsscenarier främst drevs av konsumenter med stark köpkraft.
Dessutom fanns det några spel och simulatorer för entusiaster, som ”Flight Simulator” på Windows, som erbjöd mer varierade och lättviktiga produktfunktioner och lockade nya användare som gillade att utforska och experimentera. Därför kan vi se att den tidiga PC-ekosystemet byggdes av en kombination av kraftfulla produktivitetsverktyg, genomslag i små och medelstora företag, industriell och akademisk forskning samt några intressanta genombrottsapplikationer. Tidslinjen för denna process var dock mycket lång eftersom de underliggande DOS- och GUI-teknologierna utvecklades relativt långsamt.
Specifikt spelade applikationsleverantörer som Lotus en nyckelroll. De var inte operativsystemleverantörer; dessa fokuserade på att bygga systemets tillförlitlighet, resursplanering och skalbarhet. Under perioden 1982 till 1990 på 8 till 9 år tog Lotus chansen att fylla ett marknadsgap. Apple och Microsoft började inte släppa sina kompletta Office-sviter förrän på 1990-talet, vilket gav dessa systemnivåapplikationer en marknadsfördel på 7 till 8 år. De utnyttjade populariteten hos IBM PC och DOS-systemet för att snabbt nå företagsanvändare, ekonomihantering och andra områden. Dessa användare hade starka behov av databehandling, och kombinationen av de nya datorerna och Lotus mjukvara uppnådde full genomslag i dessa scenarier.
Windows 1.0 och Ballmers ”galna” försäljningsargument
Tillbaka till 1985 hade Lotus marknadsandel redan överstigit 50 %. Med tanke på det höga priset på 495 dollar är det inte svårt att förstå varför Steve Ballmer, när han marknadsförde Windows 1.0, betonade: ”Vi erbjuder ett schackspel, ett kalkylblad och bildbehandling för bara 99 dollar, inte 500 eller 600.” Vid den tiden var programvaruprissättning en mycket attraktiv försäljningspunkt i marknadsföringen. Vid försäljning av operativsystemet erbjöd specialiserad grafikprogramvara som CorelDRAW, något liknande senare Photoshop, användarna professionella bildbehandlingsfunktioner.
Lotus 1-2-3
Företag: Lotus Development Corporation
Bakgrund: Lotus 1-2-3 utvecklades av Lotus Development Corporation, grundat av Mitch Kapor 1982. Lotus 1-2-3 var den första programvaran för IBM PC som erbjöd integrerade funktioner för kalkylblad, grafik och databashantering, och blev snabbt en av de mest populära applikationerna, särskilt bland affärs- och företagsanvändare.
Användarprofil: De huvudsakliga användarna var företagsanvändare, särskilt finansanalytiker, revisorer och chefer. Dessa användare hade vanligtvis en viss teknisk kunskap och var mycket känsliga för data.
Huvudsakliga användningsområden: Användes för databehandling, komplex finansiell modellering, budgetering, rapportgenerering och olika andra former av dataanalys. Lotus 1-2-3:s kraftfulla funktioner gjorde det till det främsta valet för kalkylblad i företag.
1983: Lotus 1-2-3 lanserades och blev snabbt marknadsledande, särskilt på IBM PC-kompatibla datorer.
1985: Marknadsandelen översteg 50 %, med ett pris på 495 dollar.
CorelDRAW
Företag: Corel Corporation
Bakgrund: I slutet av 1980-talet, med populariseringen av grafiska användargränssnitt (GUI) och persondatorer (PC), växte marknaderna för grafisk design och desktop publishing snabbt. Traditionella designprocesser (manuell ritning och sättning) började övergå till digitalt.
Användarprofil: Hade viss förståelse för datorgrafisk design, men var inte nödvändigtvis tekniska experter.
- Professionella formgivare och illustratörer: Behövde precisa vektorritverktyg för att skapa illustrationer, logotyper och andra designarbeten.
- Professionella inom desktop publishing (DTP): Behövde kombinera text och grafik för att producera böcker, tidskrifter, reklamaterial med mera.
- Små och medelstora företag och frilansare: Använde CorelDRAW för att skapa företagslogotyper, annonser och marknadsföringsmaterial utan dyr specialiserad designhårdvara och -programvara.
1989: CorelDRAW 1.0 var den första mjukvaran som kombinerade vektorgrafikdesign och desktop publishing-funktioner, och dess lansering ledde en revolution inom grafisk design. Denna version stödde funktioner som flera sidor, kurvredigering och ordbehandling.
Från förvärvade MS-DOS 1.0 till Windows + Office
| Tid | Titel | Detaljer |
|---|---|---|
| 1981 | MS-DOS 1.0 | Bekräftat partnerskap med IBM |
| 1982 | MS-DOS 1.25 | Licensierad till tredjepartskompatibla märken |
| 1983 | MS-DOS 2.0 Microsoft Word |
Förbättrad systemfunktionalitet Stöd för hårddiskar och katalogstrukturer |
| 1985 | Windows 1.0 | Lade till ett grafiskt gränssnitt ovanpå Microsoft MS-DOS |
| 1987 | Windows 2.0 | Bättre grafikstöd och prestanda Överlappande fönster och snabbkommandon |
| 1988 | MS-DOS 4.0 | Introducerade det grafiska användargränssnittet DOS Shell |
| 1989 | Microsoft Office | Tillhandahöll kontorsautomationsintegration för Windows |
Microsofts uppgång berodde kanske inte på dess initiala produkter, utan på dess utmärkta affärsstrategi. Tidigt visade Microsoft skarp affärssinne genom att förvärva ett tredjepartsoperativsystem kallat 86-DOS [ja, de köpte det…]. Detta gjorde dem till en viktig partner för IBM. Men överraskande nog expanderade Microsoft snabbt under det andra året och samarbetade med andra hårdvarutillverkare, ungefär som när Tesla idag definierar industristandarder och många företag följer efter, vilket driver hela ODM-ekosystemet och etableringen av AIPC-standarder.
Efter att Microsoft definierade standarden började hårdvarutillverkare agera. Åter till dagens AI-PC-spår och edge AI-applikationer, kommer vi att se ett stort antal bärbara datorer med 40 TOPS AI-beräkningskraft komma ut på marknaden, och Qualcomm gör liknande drag. Detta för med sig nya variabler: å ena sidan uppgraderas hårdvaran, och å andra sidan betonas operativsystemets betydelse i mellanskiktet. Operativsystemet behöver effektivt fördela de 40 TOPS beräkningsresurserna för att möta behoven hos många applikationer i överliggande lager. Microsoft investerade tungt i operativsystemutveckling och hade därför inte tid att konkurrera med Lotus eller WordPerfect under lång tid.
Det var inte förrän det tredje året som Microsoft började efterlikna WordPerfect [systemet absorberar viktiga applikationer], och detta fortsatte fram till 1989. Under åtta år befäste Microsoft sin tredjepartslisensiering för systemet och började sälja Windows 1.0 självständigt 1985. Det är värt att notera att Windows 1.0 släpptes hela fyra år efter Xerox GUI-system, vilket visar den långa processen i utvecklingen av operativsystem. Tidiga Windows var främst bundlade med hårdvaruenheter, med försäljning som nådde tiotusentals enheter under de första två till tre åren, och en kumulativ leverans på fem till sex miljoner enheter inom åtta år.
Produktivitetsrevolutionen vs. Varje hushåll
Vid den tiden var den huvudsakliga marknaden för PC inte begränsad till Nordamerika; utvecklade länder i Europa importerade också dessa enheter sjövägen. Användarbasen var främst koncentrerad till tunga produktivitetsscenarier. Det var inte förrän 1989, när applikationer som bildbehandling började dyka upp, som nya användningsområden drevs fram. Även med lanseringen av GUI-system gick de inte omedelbart in på massmarknaden. Det verkliga genombrottet i vanliga hushåll skedde runt 1994, med Netscape-webbläsarens och internetets framväxt, när fler och fler som använde datorer på jobbet började köpa enheter till sina hem.
Denna teknologiska utvecklingsväg, från en produktivitetsrevolution till en konsumentexplosion, är tydligt synlig under PC-eran. Idag sprids information snabbt, och om AI kan stärka varje konsumentscenario återstår att se. I de tidiga skedena kan vi behöva fokusera mer på förändringar på produktions- och leveranssidan.
En annan nyckelfaktor är utvecklingen av människa-datorinteraktion. Introduktionen av musen skapade ett nytt sätt att interagera med datorer, vilket starkt påverkade PC:ns genomslag. På samma sätt kan vi reflektera över den nuvarande strukturen genom att titta på Microsofts utvecklingsbana. Om dagens OpenAI bekräftar möjligheten för ett AI-operativsystem i molnet, så kommer applikationer på kanten utan stöd av ett operativsystem ha svårt att växa. När operativsystemet och hårdvaran når viktiga genombrott kan nedströmsapplikationer uppleva explosiv tillväxt.
Idag interagerar vi genom naturligt språk och videoströmmar, och dessa nya variabler kommer också att påverka AI:s användningsområden. För att sammanfatta kort, anledningen till att Microsoft tog från 1981 till 1989 för att utveckla DOS och GUI parallellt var att de behövde vara kompatibla med ett stort antal hårdvaruenheter. Detta förklarar också varför Steve Jobs en gång såg ner på Windows-systemet, och ansåg det vara komplext och oestetiskt. Men ur ett affärsperspektiv tog Microsoft stadiga steg: från att förvärva kod och lansera ett GUI till att släppa Office åtta år efter Lotus, konsoliderade de sin ekosystemposition på alla sätt.
En inblick i den nuvarande Windows-arkitekturen genom Windows NT:s perspektiv
![]() Windows NT-arkitekturdiagram med översatta komponenter |
|
Sammanfattning av de fyra elementen – att se variabler och konstanta behov
Chip, System, Applikationer och Enheter
|
Lagring/Beräkning
Drivrutin |
System
Grund |
Applikation
Användarvärde |
Produkt
Fordon |
I denna process är flera nyckelelement värda att notera. Först är utvecklingen av lagrings- och beräkningsenheter. Även om kostnaderna för tidiga chip och lagring minskade, sjönk de inte avsevärt, vilket är kopplat till framstegen i Moores lag. Idag är också utplaceringen av edge computing möjlig eftersom teknikutvecklingen nått en viss brytpunkt.
För det andra, operativsystemet, som en viktig middleware, ansvarar för nyckeluppgifter som resursförvaltning och enhetsanpassning. Även om tidiga system inte var kraftfulla var deras betydelse självklar.
För det tredje kunde tidiga killer-applikationer generera pengar, men om de inte utvecklades på djupet kunde de så småningom ersättas [det som nu ofta kallas vertikala scenarier, som kräver djup]. Huruvida applikationsleverantörer kan sjunka ner till operativsystemlagret är fortfarande en fråga värd att fundera på.
I slutändan fångas värde av ett kommersiellt fordon. Under de tidiga dagarna köpte folk hårdvara som fordon, men med etableringen av systemplattformar minskade hårdvarans betydelse relativt. I eran där ”plattform är kung” delade operativsystemet inte bara värdet utan vårdade också ett rikt applikationsekosystem. Detta fenomen bekräftades även under mobilinternet-eran.
Vi kan kartlägga dessa fyra element—hårdvara, operativsystem, applikationer och människa-datorinteraktion—till den aktuella utvecklingen av AI. På utbudssidan bör vi fundera på varför människor behöver datorer och varför de behöver AI-modeller. Den oföränderliga efterfrågan är effektiv och bekväm lagring och redigering av information. Varje generation av datorutrustning strävar efter mer naturlig och enklare människa-datorinteraktion, vilket är ett evigt tema.
Slutligen är spridning och delning av information också viktiga faktorer som driver teknologisk utveckling. Från tidig e-post till senare webbläsare har utvecklingen av spridningsmetoder mött människors djupgående behov av digitalisering. Idag anser vi generellt att vi befinner oss i en våg av intelligens, precis som den tidigare informationsrevolutionen, och vi kan använda historiska mönster för att dra paralleller och fundera över framtida riktningar.
- Teknologisk grundnivå (nyckel till lagring/beräkning): Utvecklingen av kärnhårdvaruteknologier som processorer (beräkningskraft) och lagring (lagringsmedia).
- Plattformsnivå: Den grundläggande plattformen för PC:n, som tillhandahåller gränssnitt mot hårdvara och en körmiljö för applikationer på övre nivå.
- Applikationslager: Applikationsprogramvara är den främsta drivkraften för användare att köpa PC och en viktig faktor för att locka användare till en viss plattform.
- Transaktionsfordon: Hårdvaruprodukter är de fysiska enheter som slutanvändare köper, tillgängliga för användare att välja och köpa.
Efterfrågan – Digitalisering:
- Bevarande: Ett bekvämt medium för permanent lagring av information.
- Produktion: Det ständiga behovet av effektivitet vid bearbetning av text, data, bilder och information i produktivitetsscenarier.
- Spridning: Effektiviteten i samarbete.
Viktiga händelser och trender efter 1990
| År | Händelse | Beskrivning |
|---|---|---|
| 1993 | Intel Pentium-processor lanserad | Betydligt förbättrad CPU-prestanda och effektivitet |
| 1998 | Windows 98 och USB 1.1-standarden | Gjorde externa enheter plug-and-play |
| 2000 | Intel Pentium 4 | Högpresterande stationär huvuddator |
| 2003 | Explosion av internetapplikationer | MySpace och Facebook, Amazon och eBay |
| 2005 | Laptopförsäljningen överstiger stationära datorer för första gången | Intel Centrino-plattformen, integrerad med lågströmsprocessorer |
| 2007 | Netbooks framväxt | Netbooks baserade på Intel Atom-processorer dyker upp |
| 2011 | Ultrabook | Ultrabook-konceptet, laptop vs surfplatta |
| 2018 | Smartphone | Ersatte andra enheter för att bli den främsta mobila datoranvändningen |
Tabellen ovan visar tydligt mycket intressant information! Under 1990-talet välkomnade vi lanseringen av Intel Pentium-processorn, explosionen av internetapplikationer, födelsen av Windows 98 samt framväxten av USB 1.1, netbooks och ultrabooks. Denna serie teknologiska innovationer beskriver den oföränderliga trenden i datorutvecklingen — internet blev verkligen en del av varje hem.
Under denna period blev CPU:er ännu lättare, och införandet av USB 1.1 gjorde utbyggnaden av kringutrustning smidigare, vilket gjorde det enkelt att ansluta enheter som möss. Internets framväxt ledde till att många konsumenter började använda personliga datorer. Det är värt att notera att utvecklingen av PC visar en tydlig trend: lättvikt och portabilitet. En tidig föregångare till mobiltelefonen var PDA:n.

Stationär dator – 2000

Bärbar dator – 2005

Ultrabook – 2012
Bilderna ovan är AI-genererade simuleringar
PDA-revolutionen på 1990-talet ger ett intressant perspektiv. Tiden är begränsad, så vi går inte in på det här. Men en genomgång av denna utveckling kan ge viktiga analogier för framtida iterationer av AI-PC eller AI-NAS.
Jag har diskuterat detta med kollegor på Lenovo. Deras tidiga marknadsgenomslag involverade redan webbläsare. År 2000 lanserade Lenovo ett program som gjorde uppringd internetåtkomst enklare, förenklade nätverksinställningar och anslutning, vilket gjorde det möjligt för fler användare att nå internet. Detta hjälpte dem att snabbt ta marknadsandelar. Sedan kom eran med märkesdatorer.
En konstant i PC-utvecklingen är skiftet mot bärbarhet och tunnhet, vilket gör det möjligt för individer att nå den digitala världen när som helst och var som helst. En annan trend är övergången från tidig tung produktion till multi-scenariogenomslag. Så, i vilka vertikala branscher kommer AI initialt att fokusera? När kommer det att uppnå bred användning? Detta är nära kopplat till underliggande beräkningskraft, enhetsformfaktor och operativsystemets mognad – allt hänger ihop. Vi ser att den senare delen av PC-eran förkroppsligar detta multi-scenariogenomslag.
Idag driver nya variabler som GPU:er, TPU:er och RISC-V:s inbyggda NPU systemutvecklingen, och dessa systemförändringar kommer att genomsyra applikationslagret. När tiden är mogen kommer många intressanta AI-native-applikationer att dyka upp, vilket gör lokal Copilot ännu kraftfullare. Men det finns många nyckelelement i industrikedjan som kräver djupgående övervägande och observation av förändringar hos nyckelaktörer.
Föränderliga faktorer, oförändrade trender
- 1. Bärbarhet: Från tunga till bärbara, lägre energiförbrukning och lättare enheter – som avsevärt minskar tröskeln till den digitala världen.
- 2. Multi-scenario: Spel, teckning, programmering och relaterade kringutrustningar – som avsevärt utvidgar gränserna för digitala tillämpningar.
Vad är nyckeln till att etablera en ny kategori? Specialiserade enheter vs. allmänna datorer
I denna process insåg jag en intressant fråga: Hur står sig dagens multiformade AI-hårdvara jämfört med PC-utvecklingen förr? Vilka enhetsinnovationer kommer att slukas av PC:n, och vilka kommer inte? PC:n var så dominerande då, precis som smartphones, bärbara datorer och molntjänster är idag. Så, i vilka scenarier skedde en avvikelse mellan specialiserade och allmänna enheter, som slutligen inte ersattes av en enda, enhetlig enhet?
Jag upptäckte att spelkonsolen som Nintendo lanserade 1983 faktiskt använde samma chip som Apple I och II, men den blev en specialiserad enhet. Än idag följer köp av en PS5 eller Xbox samma logik. Därför, när ett vertikalt scenario har tillräckligt djup i datorbehov, systemkrav och användningsscenarier, kan det bilda en självständig kategori av specialiserade enheter. PDA:n från 1999 är ett annat exempel. Den använde relativt föråldrade, lågströmsenheter för att möta behovet av en personlig digital assistent. Även om PDA:n då inte var en telefon, utan bara ett lågkostnadsverktyg för schemaläggning och kontaktadministration, var den mycket billigare än en PC och upptog ett litet ekosystem av bärbara enheter, vilket kan ses som en föregångare till mobiltelefonen. Men den ersattes inte helt av senare bärbara datorer; istället överträffades den av mobiltelefonernas utveckling.
Mellan 1980 och 2000, uppstod en enda, enhetlig datorenhet inom datorindustrin? Nyckelordet är ”scendjup”.

NES – 1983
MOS Technology 6502

PDA – 1999
Motorola DragonBall 16 MHz
Gränsen mellan specialiserade och allmänna enheter får oss att fundera: vilka av dagens AI-smartprylar kommer att slukas av AI-telefoner, och vilka kommer att utvecklas självständigt till nya kategorier som AI-leksaker? När det gäller scenens djup och investering i tillgångar kan vi använda spelkonsoler och PDA:er som analogier för djupare reflektion.
För övrigt hade de tidiga 8-bitarsprocessorerna en beräkningsprestanda som inte kunde mäta sig med dagens ARM-processorer; de var jämförbara med displaykontrollen i ditt hemliga kylskåp eller mikrovågsugn. En dator från 1980 låg i princip på samma beräkningsnivå som ditt hemliga kylskåp. Poängen är: sett i backspegeln var den inte så kraftfull som man kan tro, men den lade grunden för hela PC-industrin och internetutvecklingen.
| Jämförelsedimension | PDA | PC år 1999 |
|---|---|---|
| Datorprestanda | Lågpresterande processor (t.ex. Motorola DragonBall 16 MHz), 2–16 MB RAM, begränsat lagringsutrymme; svag grafik- och multimediebehandling. | Högpresterande processor (t.ex. Intel Pentium III 500 MHz); 64–256 MB RAM, 10–20 GB hårddiskkapacitet; kraftfull grafik- och multimediebehandling. |
| Kostnad | Prisspann: 200–600 USD; Främst för personlig informationshantering (PIM), hög kostnadseffektivitet. |
Prisspann: 1000–2000 USD; Erbjuder omfattande datorfunktioner, brett användningsområde, hög kostnadseffektivitet. |
| Energiförbrukning | Energieffektiv design, batteridriven; Lång batteritid, strömförbrukning från några hundra milliwatt till några watt. |
Hög strömförbrukning, vanligtvis 100-300 watt; Kräver kontinuerlig strömförsörjning, dålig bärbarhet. |
| Användningsscenarier | Schemaläggning, kontaktadministration, uppgiftslistor; Enkel textbehandling, anteckningar, e-post; betonar bärbarhet och omedelbarhet. |
Kontorsarbete (ordbehandling, kalkylblad); Underhållning (spel, musik, filmer); Internet-surfning och kommunikation, mjukvaruutveckling, grafisk design med mera. |
| Bärbarhet | Liten storlek, lätt vikt; lätt att bära och använda när som helst, var som helst. | Stor storlek, tung vikt; för användning på en fast plats, inte lätt att bära med sig. |
Dagens AI-PC, applikationer och nya möjligheter
Tillbaka till nutiden, även om elementen i industrikedjan har förändrats, är det som förblir oförändrat människors behov av att behålla, producera och sprida data. På en abstrakt nivå skiftar människors behov från GUI-operationer till att behöva en konkurrent eller en intelligent agent som automatiskt slutför kod eller uppgifter. Det som förblir konstant bör vara behovet av att förvärva och lagra information. Med implementeringen av Copilot kan skapare mata in lite kontext och låta maskinen hjälpa dem att få kreativa skript eller förstå vad deras kollegor gör.
Till exempel kan ett företag använda en agent för att i realtid följa alla relevanta branschinnovationer och automatiskt generera veckorapporter. Dessa sätt att behålla och förvärva produktionsdata kommer att bli smartare och mer intelligenta. Och bärare för detta kommer definitivt att skilja sig från en traditionell PC; det kommer att vara en alltid påslagen, realtidsberäkningsenhet. Tidigare behövde man använda en mus och GUI för att vara produktiv; men när intelligens är direkt inbäddad i beräkningsenheten kan den agera självständigt. Det betyder att människa-dator-interaktion inte längre behöver förlita sig på mus och skärm. Du kan ge den en uppgift, och den kan slutföra den direkt.
Och processen för att uppnå allt detta avslöjar ett mönster som kan ses i mikrokosmos från de senaste 40 åren. Därför har dessa underliggande scenariobehov en konsekvens! Den nya produktiviteten som drivs av GPT kommer fortfarande att domineras av produktivitetsscenarier i de tidiga stadierna, precis som Lotus 1-2-3 under DOS-eran! Vi kan bygga vidare på denna grund, lägga till nya produktionsvariabler och hitta möjliga tidiga tillämpningsscenarier. Kombinerat med den tidigare nämnda spelindustrin, bildbehandlingsindustrin och metoder för att producera, förvärva och sprida data kan vi teoretiskt utforska alla möjligheter.
Behållning: Maskinen samlar in information och ger personliga rekommendationer.
Produktion: Modeller deltar i beslutsfattande och assisterar i produktionsprocessen.
Spridning: Maskinen hanterar automatiskt distribution och spridning.
Nya Produktionsfaktorer
Nu kan vi se fyra nya produktionsfaktorer börja framträda: utvecklingen av GPU:er och TPU:er, nya operativsystemmodeller, dataprivatisering och mängden unik användardata som innehas. När dessa faktorer kombineras kan vi bevittna födelsen av en helt ny “beräkning-och-lagring-integrerad” datorenhet. Dess position skiljer sig från mobiltelefoner, bärbara datorer och till och med publika moln. Jag kommer att försöka lista dess egenskaper tydligt i en tabell.
Privata Data |
Stora Modeller |
GPU/TPU-beräkningskraft |
Applikationer |
|
|
|
|
Författare: Brian Kerrigan |
- Privata Data: Högkvalitativa proprietära dataresurser inom en organisation eller privat förvärvade data av maskiner är nyckelresurser för träning och optimering av AI-modeller.
- Stora Modellers Kapacitet: Förmågan att förstå, generera och resonera, anpassningsbar till olika uppgifter och scenarier.
- GPU- eller ASIC-beräkningskraft: Specialiserad högpresterande hårdvara för inferens.
- AI-applikationer: Nya applikationer baserade på LLM:er som integreras i olika scenarier.
Scenarier och Bärare – En Tabell
| Jämförelse | Mobiltelefon | Privat Moln | Publikt Moln |
|---|---|---|---|
| AI-applikation | Lättviktig, Copilot | Privat Inferenskraft, Agent | OpenAI, Agent |
| Stora Modellers Kapacitet | 3B | 7B – 100B | 405B |
| Beräkningsprestanda | Mobilchip, Låg Effekt 6W 20 TOPS |
GPU / ASIC, Medel-Hög Prestanda 200W 200 TOPS |
Högpresterande Kluster, Elastisk Skalning |
| Operativsystem | Android, iOS Körning i Realtid Fullständig Dataåtkomst |
Privat Moln-OS Uppgiftsutförande i Realtid Fullständig Dataåtkomst |
Molnplattformsspecifikt System Uppgiftsutförande i Realtid Delvis Auktorisation |
| Datainlagring | 2TB | Skalbar Kapacitet, Hundratals TB | Skalbar Kapacitet |
| Batteritid | Batteripaket 12 Timmar |
Ansluten ♾️ |
Ansluten ♾️ |
På grund av batteritidsbegränsningar ser vi att datoranvändning blir allt mer lättviktig, vilket har lett till dagens mobiltelefoner och bärbara datorer. Därför har den teknologiska utvecklingens bana alltid gått mot portabilitet och samarbete, vilket är långsiktiga behov hos människor. Precis som utvecklingen av e-handel strävar människor efter högkvalitativa varumärken och lättviktiga upplevelser, med önskan om mer portabla batterier och telefoner. Dock begränsas beräkningskraft och batteritid av energiförbrukning och effektgränser, vilket begränsar intelligensnivån hos modeller som kan köras på enheter, för närvarande vanligtvis på 3 miljarder parametrar.
Detta betyder att när Windows eller nästa generations Android-system är redo, kommer de sannolikt att baseras på 3B-nivåmodeller och Copilot, vilket inspirerar en ny generation AI-applikationer, såsom AI-drivna webbläsare, e-postsvarverktyg med mera. Utrymmet för dessa applikationer är begränsat, men de kommer ändå att vara mycket intressanta eftersom de bara kan köra 3B-nivåmodeller i bakgrunden. Detta är en fas som mobiltelefoner och laptops oundvikligen kommer att gå igenom eftersom AI-beräkningskraft per watt från ett kiselprocessperspektiv inte kommer att förändras dramatiskt snabbt.
Å andra sidan finns ren molndatabehandling. Men problemet med molnet är: är du villig att överlämna dina data från plattformar som Notion, Slack och Lark till en molnleverantör? Eller är du villig att ge en enda molntjänstleverantör full tillgång till dina Taobao-, WeChat- och finanskonton? Detta innebär uppenbarligen en enorm psykologisk beslutsbörda. Därför kommer molnet att existera på högsta nivå och tillhandahålla de mest intelligenta modellkapaciteterna via API-anrop, och penetrera och täcka stora företag.
Men mitt i detta har en möjlighet att bygga ett nytt operativsystem uppstått. Detta operativsystem kommer att fungera som en bärare för en intelligent agent, som körs på en enhet som är påslagen 24 timmar om dygnet. Du kan skicka uppgifter till den från din telefon eller laptop, och den kommer att utföra dem automatiskt i bakgrunden. Den har en enorm datalagringskapacitet, och eftersom det inte finns några begränsningar i beräkningskraft kan den utrustas med ett hundratalswatt GPU, vilket ger cirka 200 TOPS AI-beräkningskraft. Iterationen av TPU:er och NPU:er kommer ytterligare att sänka kostnaden för beräkningskraft, liknande utvecklingen av den tidiga 8088-chippen.
På denna grund kan en realtidsmodell med tillräcklig intelligens byggas för att tjäna alla. Mappat till nutiden är detta de stora modellerna på 7B till 100B-nivå som alla släpper, vilka efter kvantisering kan köras helt på en 200 TOPS beräkningsarkitektur. Om det finns lämpligt operativsystemstöd kommer ett rikt ekosystem av intelligenta agentapplikationer att växa fram. Dessa systemnivåmodeller är finjusterade, det vi ofta kallar edge-modeller. Även om industrikedjan har många delar, har denna nya enhet en tydlig positionering. Precis som den bärbara dator du köper kan du logga in på olika konton utan att oroa dig alltför mycket för datasäkerhetsfrågor, eftersom det är din personliga dator. Den är tillräckligt smart för att tjäna dig dygnet runt.
Skapare, ingenjörer och kunskapsarbetare
![]() Skapare |
![]() Frilansare |
![]() Kodare |
Om vi bortser från front-end-innovationer som glasögon och hörlurar, är det mycket sannolikt att en personlig datorenhet kommer att dyka upp på back-end, som går från produktivitet till konsumentanvändning. Detta är en enhet som skiftar från ren beräkning till att vara en integrerad beräknings- och lagringsenhet. Idag förbättras datamobilitet och samarbete, samtidigt som efterfrågan på beräkningskraft ökar. En integrerad beräknings- och lagringsenhet blir en nödvändig bärare för en personlig intelligent agent.
Inledningsvis kan sådana enheter fokusera på grupper som skapare, ingenjörer och kunskapsarbetare för att komma in på marknaden. De har vanligtvis stora mängder rik mediedata och behov av tillgångshantering samt kräver produktivitetsverktyg för att möta sina utmaningar inom lagring och samarbete. Detta liknar penetrationsvägen för tidiga PC:er, med målgrupp användare som är villiga att betala och har ett starkt behov av produktivitet, och därigenom går in på denna nya slagfält.
ZimaCube – Skaparens privata moln
Vi har nyligen genomfört ytterligare intervjuer med många skapare och innehållsproffs, vilket avslöjade ett bredare spektrum av applikationsscenarier. Faktum är att denna kategori har en mycket lång pipeline. ZimaCubes tillvägagångssätt liknar mer Apples vertikala integration, och vi behöver tänka om hur vi går vidare i olika skeden. För närvarande fungerar NAS (Network Attached Storage) som en bärare för AI. Den har sin egen iterativa process. Inom denna process uppnår vi kommersialisering genom vertikal integration av skaparnas privata molnlösningar.
![]() |
![]() |
Hårdvara är inte hindret, utan startpunkten; det behöver en viss unikhet. |
System och applikationer tjänar scenariot. |
Hårdvara är startpunkten; det börjar med hårdvara, men det är i applikationerna som scenariovärdet finns. Ett öppet applikationsekosystem kan hjälpa oss att tidigare ta till oss olika framväxande applikationer som Lotus 1-2-3. Vi behöver inte skynda oss att investera mycket resurser i att utveckla applikationer; istället bör vi bygga en plattform och främja den genom community-baserad verksamhet.
System och tredjepartsapplikationer

Var öppen, integrera mainstream-applikationer från LocalLLM-gemenskapen och bygg en App Store med dokumentation och unika applikationsstandarder.
Nödvändigheten av att kombinera system och gemenskaper i en global affärskontext
Men hybridprodukter av hårdvara och mjukvara är verkligen svåra att skapa. I dagens Kina kräver många innovativa företag dubbla förmågor. När det gäller organisatoriska kapaciteter behöver de å ena sidan följa en ”waterfall”-metod för hårdvaruhantering och produktionsprocesser för att kontrollera hårdvarukostnader och risker; å andra sidan behöver de bygga en agil, iterativ logik för att uppdatera mjukvarusystem veckovis eller månadsvis.
Gemenskaper kan vara ett utmärkt verktyg för att föra globala användarbehov och feedback tillbaka in i våra mjukvarusystem. Hårdvaran i sig kräver kanske inte frekventa uppdateringar. Om du säljer en powerbank kan Amazons betyg och waterfall-hantering slutföra produktdefinitionen och en ettårig försäljningscykel. Men idag finns det få nischer för kreativa företag som enbart förlitar sig på hårdvaruleverans. De flesta kategorier som bygger på stordriftsfördelar domineras av jättar, och det finns inga nya trafikstrukturer som snabbt kan expandera marknaden.
En universell utmaning: En uppmaning till nästa generation plattformsbyggare
Historien visar att varje databehandlingsera i slutändan definieras av en eller några få dominerande plattformar. Idag är byggandet av denna nya plattform en gemensam möjlighet och utmaning för alla innovatörer globalt. Detta kräver en aldrig tidigare skådad och omfattande kapacitet som överskrider gränser:
Djup integration av hårdvara och mjukvara: Detta kräver den perfekta sammansmältningen av hårdvaruutvecklingens ”waterfall”-noggrannhet med mjukvarans ”agila” iterationer. Framgångsrik innovation handlar inte längre bara om hårdvara eller mjukvara, utan om en sömlöst integrerad ”Hybridprodukt.”
Att tillsammans bygga ekosystem och gemenskaper: Precis som Homebrew Computer Club tände PC-revolutionen, är dagens open source-gemenskaper (som LocalLLM) vaggan för nästa generation av ”killer apps.” Ett slutet system kan vinna för en stund, men bara ett öppet ekosystem kan vinna framtiden.
Därför är den ultimata lärdomen från 1980-talet inte geografi, utan vision. Segrare från den eran vann inte för att de befann sig i Silicon Valley, utan för att de framgångsrikt integrerade chip, system och applikationer i en plattform som gav människor makt och inledde en ny era.
Idag är scenen satt. För entreprenörer och investerare världen över är den verkliga frågan inte ”var” man ska innovera, utan ”hur” man effektivt organiserar de nya produktionsfaktorerna—privata data, AI-modeller och tillgänglig datorkraft—till en ny, människocentrerad plattform som frigör kreativitet. Detta är inte en soloföreställning av något enskilt land eller region, utan en global satsning som berör oss alla, med målet att omforma framtidens databehandling.
Zima Kampanjnav
Mer att läsa

Litet Rack, Stort Homelab: Hur en Maker Byggde det Ultimata microRACKet
Små utrymmen förtjänar en kraftfull lösning. Detta microRACK modulära serverstativ rymmer hela ditt ZimaBoard homelab under ett skrivbord för maximal effektivitet.

IceWhale Technology lanserar ZimaCube 2: En kraftfull lösning för självhosting
IceWhales ZimaCube 2 är en öppen plattform för självhosting med Intel 12:e generationen, dubbla PCIe, Thunderbolt 4 och ZimaOS, tillgänglig i 3 konfigurationer och...

Retro AT-stil Chassi för ZimaBoard 2: Gör-det-själv Hemmaserver med Smart Display
Tråkiga hemservrar förstör din arbetsplats estetik och begränsar kreativiteten. Bygg detta retro AT-stil ZimaBoard 2-fodral för att kombinera 90-talets nostalgi med DIY-kraft.





















