Questo contenuto proviene da una sessione di condivisione di IceWhale Technology all'interno di FreeS Fund. Mira a rivedere le trasformazioni chiave, le tendenze di sviluppo, gli eventi critici e le costanti esigenze dei consumatori sottostanti dell'industria PC della Silicon Valley negli anni '80. L'articolo è piuttosto lungo, coprendo lo stato dei chip negli anni '80, l'inizio e la penetrazione dei PC, i cambiamenti nei sistemi DOS e Windows 1.0 dal 1980 al 1990, le prime killer app per PC e gli scenari di cold start. Speriamo che possiate leggerlo con pazienza, cercando di ispirare le vostre decisioni di investimento e le innovazioni di prodotto nell'hardware e nelle applicazioni AI.
Prendendo in prestito una citazione di Ray Dalio di Bridgewater Associates:
L'idea che la storia umana abbia schemi ricorrenti è semplicemente realtà. Forse “ciclo” non è la parola giusta per questo, forse dovrebbe essere un modello, ma penso che entrambi descrivano il processo.
—— Ray Dalio
L’ascesa del PC, il processo di informatizzazione e i quattro elementi chiave
Computer History Museum, Silicon Valley anni ’80

Apple I – 1976
$666
Autore: The wub
Licenza: Creative Commons Attribuzione-Condividi allo stesso modo 4.0

Apple II – 1977
MOS Technology 6502, 8-bit, colore, $1200+, 8 slot di espansione
Autore: Rama
Licenza: CC BY 2.0

Commodore 64 – 1982
$595 ->$299
Autore: Bill Bertram
Licenza: Creative Commons Attribuzione-Condividi allo stesso modo 2.5
Oggi, mentre OpenAI, Google e Microsoft definiscono “l’era dell’intelligenza” basata su grandi modelli, torniamo prima all’inizio della “era dell’informazione” costruita dalla nascita del PC nel 1976. Fu in quel momento che nacque l’Apple I. Questo computer fu lanciato da Steve Jobs e Steve Wozniak in una comunità di appassionati chiamata Homebrew Computer Club, al prezzo di 600$. Il rilascio dell’Apple I nel club era molto simile a un progetto di crowdfunding online su Kickstarter di oggi. Era destinato solo agli appassionati, richiedeva il montaggio manuale delle parti e veniva fornito come kit… le prime vendite furono poco più di 200 unità. Ma questo prodotto pose le basi per Apple, aiutando Jobs e il suo team ad accumulare il loro primo gruppo di utenti iniziali.
Poco dopo, nel 1977, Apple ha rilasciato l'Apple II. Questa generazione non solo era più raffinata nell'aspetto, aggiungendo il display a colori, ma includeva anche slot di espansione e un case integrato, rendendo più facile per gli appassionati espandere e fare DIY. Tuttavia, altre specifiche core non cambiarono molto. Il rilascio dell'Apple II fu una pietra miliare; era prezzato a 1250$, ben al di sotto dei costosi computer commerciali dell'epoca.
Quattro anni dopo, IBM, presumibilmente sotto pressione di mercato, ha inviato un team snello di 12 persone per lanciare un progetto con nome in codice “Project Chess”, affermando la sua posizione di leader del settore. Come impresa leader, avevano naturalmente bisogno di fare una dichiarazione forte. Hanno introdotto l'IBM PC, basato su un processore Intel, e adottato un'architettura hardware aperta. Questo ha aperto la porta ad altri produttori per creare dispositivi compatibili, promuovendo così la formazione dell'ecosistema Wintel. La strategia aperta di IBM ha rapidamente portato il suo standard PC ad essere accettato dal mercato.
Il Commodore 64 del 1982 è un'altra azienda da notare, anche se non è andata molto lontano. Nei suoi primi giorni, ha indovinato correttamente diverse strategie chiave. Ha offerto prestazioni grafiche e audio di punta a un prezzo competitivo di 595$, che è stato ben accolto. Allo stesso tempo, Commodore ha dato priorità all'espansione nel mercato europeo, con oltre la metà dei suoi ricavi provenienti dall'Europa. Sfruttando le reti di distribuzione locali e la pubblicità, ha rapidamente guadagnato popolarità, ponendo una solida base per la sua presenza nel mercato globale dei computer domestici.
Proprio come oggi esistono numerosi sottocanali su Reddit per grandi modelli come ChatGPT, LocalLLM e Stable Diffusion, nei primi giorni di ogni epoca, un gran numero di individui talentuosi e idee sono nate da comunità online e offline. Questo non è così estraneo al mondo di oggi, dato che molti giganti della tecnologia frequentavano i forum BBS quando internet è arrivato, prima di disperdersi in vari settori. Oggi, la comunità attorno ai grandi modelli nelle migliori università ha attributi simili.
Ma ciò che è più interessante è che tali club tendono a scomparire gradualmente nel corso di un decennio. Il modello è che quando emerge una nuova categoria, attira un gruppo di appassionati molto attivi nella comunità, che propongono varie idee e persino creano prototipi di prodotto precoci. Quando le grandi aziende intervengono e l'innovazione si sposta verso la commercializzazione, le idee iniziali dal basso, nate nella comunità, maturano gradualmente e acquisiscono sostanza. Tuttavia, queste comunità spesso hanno un “destino”: sono estremamente floride durante i periodi di innovazione attiva, ma la loro popolarità svanisce man mano che l'industria matura e emergono i giganti. Il Homebrew Computer Club, così come lo sviluppo dell'industria dei modelli odierni, la stampa 3D e i quadricotteri, seguono tutti questo schema di “boom e crisi”.
![]() Autore: ZyMOS Creative Commons Attribuzione-Condividi allo stesso modo 4.0 |
L’Intel 8088 è un processore classico rilasciato nel 1979, utilizzato nell’IBM PC.
|
In secondo luogo, diamo un’occhiata ai chip di quell’epoca, che erano la base per la categoria PC. La definizione di PC è inseparabile dalla continua diminuzione dei costi dei chip e dalla potenza di calcolo “giusta”. Essere adatti all’uso e accessibili ha permesso ai PC di entrare nel mercato di massa. L’Intel 8088 è un esempio tipico. L’8088 ha regolato la larghezza del bus rispetto al suo predecessore, l’8086, risultando in costi inferiori, che gli hanno permesso di diventare il chip centrale dell’IBM PC.
All’epoca, le principali apparecchiature informatiche commerciali e militari di IBM erano molto grandi e potenti, ma completamente “esagerate” per il mercato personale. L’8088, al contrario, era un passo indietro, offrendo una potenza di calcolo bilanciata a un costo inferiore, proprio come i dispositivi NAS (Network Attached Storage) di oggi che semplificano i server commerciali in una dimensione e potenza di calcolo adatte all’uso domestico, permettendo agli individui di avere le proprie piccole soluzioni di calcolo.
Se l’H200 di NVIDIA è oggi il leader commerciale, chi sta sviluppando i chip ASIC che porteranno i modelli in vari terminali di calcolo come PC AI o NAS AI?
L’evoluzione dei sistemi – Ogni generazione vanta la sua “interfaccia utente amichevole”
Proprio come ogni azienda oggi sostiene di avere un “sistema intelligente”

Autore: Vadim Rumyantsev
dominio pubblico
Appassionati di tecnologia, Piccole imprese
Interfaccia a riga di comando

Autore: leighklotz
Creative Commons Attribuzione 2.0 Generico
Utenti aziendali
Primo a introdurre una GUI; un articolo di lusso dal prezzo di $16,595…

Autore: Eric Chan da Hong Kong
Creative Commons Attribuzione 2.0
Consumatori di massa, professionisti creativi, istruzione
Adozione diffusa della GUI
DOS – Disk Operating System
Terzo, diamo un'occhiata ai primi sistemi operativi. Proprio come oggi si “affinano” i modelli, era fondamentalmente qualcosa con cui potevano armeggiare solo gli ingegneri. Intorno al 1978-79, solo circa diecimila ingegneri nella Silicon Valley lavoravano con sistemi DOS, completamente basati su riga di comando senza interfaccia grafica. In questa fase, i sistemi operativi erano lontani dall'entrare nell'uso quotidiano delle imprese e del pubblico generale, proprio come i modelli AI di oggi, che sono ancora nelle mani di un gruppo di appassionati di tecnologia.
Non fu fino al 1981, con il lancio del primo PC di IBM, che il sistema DOS iniziò a ricevere maggiore attenzione, ma era ancora una versione a riga di comando senza GUI. Pertanto, gli scenari di calcolo di allora erano molto simili all'AI di oggi: richiedevano un gran numero di appassionati di tecnologia e ingegneri per regolare e integrare ripetutamente per ottenere applicazioni specifiche. Ciò che portò veramente i PC e i sistemi operativi al livello aziendale fu l'interfaccia utente grafica (GUI) dello Xerox Star, che diede inizio alla prima vera ondata di espansione degli utenti.
Nel 1984, il sistema di interfaccia grafica lanciato da Apple ampliò ulteriormente la base utenti verso i campi creativi, educativi e professionali, aprendo lentamente l'applicazione di massa dei sistemi operativi. Tuttavia, in questo periodo, i sistemi DOS e GUI coesistevano a lungo, con le aziende che mantenevano due sistemi separati per soddisfare esigenze diverse.
L'ecosistema delle applicazioni dei primi anni '80, ciò che oggi chiamiamo “Killer Apps”
|
Lotus 1-2-3 – 1982
Autore: Odacir Blanco |
WordPerfect – 1985
Licenza: Pubblico Dominio |
Quarto, l'ecosistema applicativo che si è sviluppato gradualmente insieme alle capacità del sistema e dell'hardware! Ecco alcune applicazioni rappresentative e uno sguardo al loro percorso di penetrazione nella rivoluzione della produttività PC.
In questi primi sistemi UI, il mercato non aveva ancora raggiunto una scala consumer e era principalmente composto da scenari di produttività. Alcune applicazioni hanno iniziato a emergere, come Lotus 1-2-3, un famoso software di gestione finanziaria e una prima versione di Excel. WordPerfect, rilasciato nel 1985, era principalmente usato nei campi legale e accademico. Tuttavia, queste operazioni di modifica non venivano eseguite tramite un'interfaccia grafica raffinata, ma si basavano sulla riga di comando DOS. I lavoratori della conoscenza dovevano imparare le operazioni rilevanti della riga di comando per completare i compiti di modifica.
Nel campo della ricerca accademica, l'uso dei PC per la digitalizzazione dei documenti e la collaborazione ha portato enormi miglioramenti di efficienza. Pertanto, entro il 1988, il tasso di penetrazione dei PC nel mondo accademico era molto alto per scenari come il trasferimento di file, la comunicazione via email e la modifica di testi. Tuttavia, è stato solo nel 1989, con il potenziamento della potenza di calcolo della CPU e delle capacità di elaborazione GUI, che ha iniziato ad avere un impatto significativo su industrie come la stampa e il design pubblicitario. Questo è un po' come oggi; sebbene OpenAI abbia rilasciato un modello video mondiale, non è stato rapidamente applicato a scenari pratici perché la maturazione delle risorse di calcolo e della tecnologia GUI richiede tempo.
|
CorelDRAW – 1989
Graphic Designer, industria della stampa |
Quicken – 1984
Utenti personali, piccole imprese |
Flight Simulator – 1985
Appassionati di volo, studenti |
Nei primi giorni di una nuova piattaforma informatica, l'innovazione applicativa che si immerge profondamente in scenari verticali mantiene ancora un enorme valore per l'industria. Se facciamo un'analogia con il presente, credo che il prossimo anno, quando la potenza di calcolo TPU nei PC sarà pronta e Windows, come sistema operativo intermedio standard, potrà fornire una potente potenza di calcolo AI per le applicazioni di livello superiore, emergerà un nuovo gruppo di applicazioni PC AI-correlate simili a Copilot, che gireranno direttamente al bordo.
In questo contesto, Quicken ha ulteriormente approfondito l'esperienza negli scenari aziendali basati su Lotus. Ha migliorato l'interfaccia di interazione e la configurabilità del sistema DOS originale, sviluppandosi profondamente per le esigenze della gestione finanziaria e delle piccole imprese. Questo ha dato a queste prime applicazioni un buon spazio per sopravvivere.
Tuttavia, i prezzi di queste applicazioni erano piuttosto alti. Ad esempio, Lotus 1-2-3 aveva un prezzo vicino ai 500 dollari, una soluzione molto costosa nel 1985. Questo indica che i primi scenari di produttività erano principalmente guidati da consumatori con un forte potere d'acquisto.
Inoltre, c'erano alcuni giochi e simulatori per appassionati, come “Flight Simulator” su Windows, che offrivano funzionalità di prodotto più diversificate e leggere, attirando nuovi utenti amanti dell'esplorazione e della sperimentazione. Pertanto, possiamo vedere che l'ecosistema PC iniziale è stato costruito da una combinazione di strumenti di produttività pesanti, penetrazione nelle piccole e medie imprese, ricerca industriale e accademica, e alcune applicazioni di rottura interessanti. Tuttavia, la tempistica di questo processo è stata molto lunga perché le tecnologie di base DOS e GUI si sviluppavano relativamente lentamente.
In particolare, i fornitori di applicazioni come Lotus hanno giocato un ruolo chiave. Non erano fornitori di sistemi operativi; questi ultimi si concentravano sulla costruzione dell'affidabilità, della gestione delle risorse e della scalabilità del sistema. Nel periodo di 8-9 anni dal 1982 al 1990, Lotus ha colto l'opportunità di colmare una lacuna di mercato. Apple e Microsoft non hanno iniziato a rilasciare le loro suite Office complete fino agli anni '90, dando a queste applicazioni a livello di sistema un vantaggio di mercato di 7-8 anni. Hanno sfruttato la popolarità dell'IBM PC e del sistema DOS per entrare rapidamente nei settori degli utenti aziendali, della contabilità finanziaria e altri. Questi utenti avevano forti esigenze di elaborazione dati, e la combinazione dei nuovi computer e del software Lotus ha raggiunto una penetrazione completa in questi scenari.
Windows 1.0 e il "Pazzo" Pitch di Vendita di Ballmer
Ritornando al 1985, la quota di mercato di Lotus aveva già superato il 50%. Di fronte al suo prezzo elevato di 495$, non è difficile capire perché Steve Ballmer, promuovendo Windows 1.0, sottolineasse: “Offriamo un gioco di scacchi, un foglio di calcolo e l'elaborazione di immagini per soli 99$, non 500 o 600$.” All'epoca, il prezzo del software era un punto di vendita molto attraente nel marketing. Vendendo il sistema operativo, software grafici specializzati come CorelDRAW, in qualche modo simile al successivo Photoshop, fornivano agli utenti funzioni professionali di elaborazione delle immagini.
Lotus 1-2-3
Azienda: Lotus Development Corporation
Contesto: Lotus 1-2-3 è stato sviluppato da Lotus Development Corporation, fondata da Mitch Kapor nel 1982. Lotus 1-2-3 è stato il primo software per IBM PC a offrire funzioni integrate di foglio di calcolo, grafica e gestione database, diventando rapidamente uno dei software applicativi più popolari, soprattutto tra gli utenti business e aziendali.
Profilo Utente: Gli utenti principali erano utenti aziendali, in particolare analisti finanziari, contabili e manager. Questi utenti avevano generalmente un certo livello di conoscenza tecnica ed erano molto sensibili ai dati.
Casi d'Uso Principali: Utilizzato per la gestione dei dati, la modellazione finanziaria complessa, la pianificazione del budget, la generazione di report e varie altre forme di analisi dei dati. Le potenti funzionalità di Lotus 1-2-3 lo hanno reso la scelta principale per l'uso di fogli di calcolo nelle imprese.
1983: Lotus 1-2-3 è stato lanciato e ha rapidamente conquistato la leadership del mercato, soprattutto sui compatibili IBM PC.
1985: La quota di mercato superava il 50%, con un prezzo di 495$.
CorelDRAW
Azienda: Corel Corporation
Contesto: Alla fine degli anni '80, con la diffusione delle interfacce grafiche utente (GUI) e dei personal computer (PC), i mercati del design grafico e del desktop publishing crebbero rapidamente. I processi di design tradizionali (disegno manuale e composizione tipografica) iniziarono a passare al digitale.
Profilo utente: Avevano una certa conoscenza del design grafico al computer, ma non erano necessariamente esperti tecnici.
- Designer e illustratori professionisti: Necessitavano di strumenti precisi per il disegno vettoriale per creare illustrazioni, loghi e altri lavori di design.
- Professionisti del desktop publishing (DTP): Avevano bisogno di combinare testo e grafica per produrre libri, riviste, materiali promozionali, ecc.
- Piccole e medie imprese e liberi professionisti: Usavano CorelDRAW per creare loghi aziendali, pubblicità e materiali di marketing senza hardware e software di design dedicati costosi.
1989: CorelDRAW 1.0 è stato il primo software a combinare progettazione grafica vettoriale e funzioni di desktop publishing, e il suo lancio ha guidato una rivoluzione nel campo del design grafico. Questa versione supportava funzionalità come pagine multiple, modifica delle curve e elaborazione testi.
Dall'acquisito MS-DOS 1.0 a Windows + Office
| Tempo | Titolo | Dettagli |
|---|---|---|
| 1981 | MS-DOS 1.0 | Partnership confermata con IBM |
| 1982 | MS-DOS 1.25 | Licenziato a marchi compatibili di terze parti |
| 1983 | MS-DOS 2.0 Microsoft Word |
Funzionalità di sistema migliorate Supporto per dischi rigidi e strutture di directory |
| 1985 | Windows 1.0 | Aggiunta un'interfaccia grafica sopra Microsoft MS-DOS |
| 1987 | Windows 2.0 | Migliore supporto grafico e prestazioni Finestre sovrapposte e tasti di scelta rapida |
| 1988 | MS-DOS 4.0 | Introdusse l'interfaccia grafica DOS Shell |
| 1989 | Microsoft Office | Fornì integrazione per l'automazione d'ufficio per Windows |
L'ascesa di Microsoft forse non fu dovuta ai suoi prodotti iniziali, ma alla sua eccellente strategia commerciale. Fin dall'inizio, Microsoft mostrò un acuto senso degli affari acquisendo un sistema operativo di terze parti chiamato 86-DOS [sì, lo comprarono…]. Questa mossa li rese un partner importante per IBM. Ma sorprendentemente, Microsoft si espanse rapidamente nel secondo anno, collaborando con altri produttori di hardware, proprio come oggi, dopo che Tesla ha definito gli standard del settore, numerose aziende hanno seguito l'esempio, guidando l'intero ecosistema ODM e l'istituzione degli standard AIPC.
Dopo che Microsoft definì lo standard, i produttori di hardware iniziarono ad agire. Tornando all'attuale settore dei PC AI e alle applicazioni AI edge, vedremo un gran numero di laptop con 40 TOPS di potenza di calcolo AI arrivare sul mercato, e Qualcomm sta facendo mosse simili. Questo porta nuove variabili: da un lato, l'hardware viene aggiornato, e dall'altro, si evidenzia l'importanza del sistema operativo nello strato intermedio. Il sistema operativo deve allocare efficacemente le risorse di calcolo da 40 TOPS per soddisfare le esigenze di molte applicazioni di livello superiore. Microsoft ha investito pesantemente nello sviluppo del sistema operativo, non lasciandogli tempo per competere a lungo con Lotus o WordPerfect.
Non fu fino al terzo anno che Microsoft iniziò a imitare WordPerfect [il sistema assorbe applicazioni chiave], e questo continuò fino al 1989. Per otto anni, Microsoft consolidò la sua copertura di licenze di terze parti per il sistema e iniziò a vendere Windows 1.0 indipendentemente nel 1985. Vale la pena notare che Windows 1.0 fu rilasciato ben quattro anni dopo il sistema GUI di Xerox, il che mostra il lungo processo di sviluppo del sistema operativo. I primi Windows erano principalmente abbinati a dispositivi hardware, con vendite che raggiunsero decine di migliaia di unità nei primi due o tre anni, e una spedizione cumulativa di cinque-sei milioni di unità entro otto anni.
La Rivoluzione della Produttività contro Ogni Famiglia
A quel tempo, il mercato principale per i PC non si limitava al Nord America; anche i paesi sviluppati in Europa importavano questi dispositivi via mare. La base di utenti era principalmente concentrata in scenari di produttività intensa. Non fu fino al 1989, quando iniziarono a emergere applicazioni come l'elaborazione delle immagini, che si spinsero nuovi casi d'uso. Anche con il lancio dei sistemi GUI, non entrarono immediatamente nel mercato di massa dei consumatori. La vera entrata nelle famiglie comuni avvenne intorno al 1994, con l'ascesa del browser Netscape e di internet, quando sempre più persone che usavano i computer al lavoro iniziarono ad acquistare dispositivi per le loro case.
Questo percorso di evoluzione tecnologica, da una rivoluzione della produttività a un'esplosione dei consumatori, è chiaramente visibile nell'era del PC. Oggi l'informazione si diffonde rapidamente, e se l'IA potrà potenziare ogni scenario di consumo deve ancora essere verificato nel tempo. Nelle fasi iniziali, potremmo dover prestare maggiore attenzione ai cambiamenti sul lato della produzione e dell'offerta.
Un altro fattore chiave è l'evoluzione dell'interazione uomo-computer. L'introduzione del mouse ha creato una nuova modalità di interazione uomo-computer, che ha influenzato notevolmente la penetrazione dei PC. Allo stesso modo, possiamo riflettere sulla struttura attuale osservando la traiettoria di sviluppo di Microsoft. Se oggi OpenAI sta convalidando la possibilità di un sistema operativo AI nel cloud, allora al margine, senza il supporto di un sistema operativo, le applicazioni di livello superiore faticheranno a crescere. Quando il sistema operativo e l'hardware raggiungeranno svolte chiave, le applicazioni a valle potrebbero sperimentare una crescita esplosiva.
Oggi interagiamo tramite linguaggio naturale e flussi video, e queste nuove variabili influenzeranno anche gli scenari applicativi dell'IA. Per riassumere brevemente, il motivo per cui Microsoft ha impiegato dal 1981 al 1989 per sviluppare DOS e GUI in parallelo è che dovevano essere compatibili con un gran numero di dispositivi hardware. Questo spiega anche perché Steve Jobs una volta guardava con disprezzo il sistema Windows, considerandolo complesso e poco estetico. Tuttavia, da un punto di vista commerciale, Microsoft ha fatto passi costanti: dall'acquisizione del codice e il lancio di una GUI fino al rilascio di Office otto anni dopo Lotus, hanno consolidato la loro posizione nell'ecosistema in ogni modo.
Uno sguardo all'attuale architettura di Windows attraverso la lente di Windows NT
![]() Diagramma dell'architettura di Windows NT con componenti tradotti |
|
Riepilogo dei Quattro Elementi – Vedere le Variabili e le Domande Costanti
Chip, Sistema, Applicazioni e Dispositivi
|
Memoria/Calcolo
Conducente |
Sistema
Fondazione |
Applicazione
Valore per l'utente |
Prodotto
Veicolo |
In questo processo, diversi elementi chiave meritano attenzione. Il primo è l'evoluzione delle unità di memorizzazione e calcolo. Sebbene i costi dei primi chip e delle memorie siano diminuiti, non sono calati significativamente, il che è legato all'avanzamento della Legge di Moore. Oggi, la distribuzione del edge computing è anche dovuta al fatto che lo sviluppo tecnologico ha raggiunto un certo punto di svolta.
Secondo, il sistema operativo, come middleware importante, svolge compiti chiave come la gestione delle risorse e l'adattamento dei dispositivi. Sebbene i primi sistemi non fossero potenti, la loro importanza era evidente.
Terzo, le prime applicazioni killer potevano generare profitto, ma se non venivano sviluppate in profondità, potevano alla fine essere sostituite [quello che ora si chiama spesso scenari verticali, che richiedono profondità]. Se i fornitori di applicazioni possono scendere al livello del sistema operativo è ancora una domanda che vale la pena riflettere.
In ultima analisi, il valore è catturato da un veicolo commerciale. Nei primi tempi, le persone acquistavano l'hardware come veicolo, ma con l'istituzione delle piattaforme di sistema, l'importanza dell'hardware è diminuita relativamente. Nell'era in cui “la piattaforma è re,” il sistema operativo non solo condivideva il valore ma nutriva anche un ricco ecosistema di applicazioni. Questo fenomeno è stato verificato anche nell'era di internet mobile.
Possiamo mappare questi quattro elementi—hardware, sistema operativo, applicazioni e interazione uomo-computer—allo sviluppo attuale dell'IA. Dal lato dell'offerta, dovremmo pensare al motivo per cui le persone hanno bisogno di computer e perché hanno bisogno di modelli di IA. La domanda immutabile è per una memorizzazione e modifica delle informazioni efficiente e conveniente. Ogni generazione di dispositivi informatici persegue un'interazione uomo-computer più naturale e facile, che è un tema eterno.
Infine, la diffusione e la condivisione delle informazioni sono anche fattori importanti che guidano lo sviluppo tecnologico. Dalle prime email ai browser successivi, l'evoluzione dei metodi di diffusione ha soddisfatto i bisogni profondi delle persone per la digitalizzazione. Oggi, generalmente crediamo di essere in un'ondata di intelligenza, proprio come la passata rivoluzione dell'informazione, e possiamo usare i modelli storici per fare analogie e riflettere sulle direzioni future.
- Livello fondazione tecnologica (chiave per storage/calcolo): Lo sviluppo delle tecnologie hardware core come i processori (potenza di calcolo) e lo storage (supporti di memorizzazione).
- Livello piattaforma: La piattaforma di base del PC, che fornisce interfacce con l'hardware e un ambiente di esecuzione per le applicazioni di livello superiore.
- Livello applicativo: Il software applicativo è la principale motivazione per cui gli utenti acquistano PC ed è un fattore importante per attrarre utenti su una determinata piattaforma.
- Veicolo di transazione: I prodotti hardware sono i dispositivi fisici che gli utenti finali acquistano, disponibili per la scelta e l'acquisto da parte degli utenti.
Domanda – Digitalizzazione:
- Conservazione: Un mezzo conveniente per memorizzare permanentemente le informazioni.
- Produzione: La necessità costante di efficienza nell'elaborazione di testi, dati, immagini e informazioni in scenari di produttività.
- Diffusione: L'efficienza della collaborazione.
Eventi e tendenze chiave dopo il 1990
| Anno | Evento | Descrizione |
|---|---|---|
| 1993 | Rilascio del processore Intel Pentium | Prestazioni e efficienza della CPU significativamente migliorate |
| 1998 | Windows 98 e standard USB 1.1 | Resi i dispositivi esterni plug-and-play |
| 2000 | Intel Pentium 4 | Mainframe desktop ad alte prestazioni |
| 2003 | Esplosione delle applicazioni Internet | MySpace e Facebook, Amazon e eBay |
| 2005 | Le vendite di laptop superano per la prima volta quelle dei computer desktop | Piattaforma Intel Centrino, integrata con processori a basso consumo |
| 2007 | L'ascesa dei netbook | Appaiono netbook basati su processori Intel Atom |
| 2011 | Ultrabook | Concetto di Ultrabook, laptop vs tablet |
| 2018 | Smartphone | Ha sostituito altri dispositivi diventando il principale calcolo mobile |
La tabella sopra mostra chiaramente alcune informazioni molto interessanti! Entrando negli anni '90, abbiamo assistito al rilascio del processore Intel Pentium, all'esplosione delle applicazioni internet, alla nascita di Windows 98 e all'emergere di USB 1.1, netbook e ultrabook. Questa serie di innovazioni tecnologiche delinea la tendenza immutabile nello sviluppo dei computer — internet è entrato davvero in ogni casa.
Durante questo periodo, le CPU sono diventate ancora più leggere, e l'avvento di USB 1.1 ha reso più comoda l'espansione delle periferiche, facilitando la connessione di dispositivi come i mouse. L'ascesa di internet ha portato un gran numero di consumatori a iniziare a usare dispositivi di calcolo personali. Vale la pena notare che lo sviluppo del PC mostra una tendenza chiara: leggerezza e portabilità. Un primo microcosmo del telefono cellulare fu il PDA.

Computer Desktop – 2000

Notebook – 2005

Ultrabook – 2012
Le immagini sopra sono simulazioni generate da AI
La rivoluzione del PDA degli anni '90 offre una prospettiva interessante. Sebbene il tempo sia limitato, non entreremo nei dettagli qui. Tuttavia, una revisione di questa traiettoria può offrire alcune analogie chiave per il futuro percorso di iterazione degli AI PC o AI NAS.
Ne ho discusso con colleghi di Lenovo. La loro penetrazione precoce nel mercato coinvolgeva già i browser. Nel 2000, Lenovo ha lanciato un programma che ha reso più facile l'accesso a internet tramite dial-up, semplificando la configurazione e la connessione di rete, permettendo a più utenti di accedere a internet. Questo li ha aiutati a conquistare rapidamente il mercato. Poi è arrivata l'era dei computer di marca.
Una costante nell'evoluzione dei PC è lo spostamento verso la portabilità e la sottigliezza, che permette agli individui di accedere al mondo digitale in qualsiasi momento e luogo. Un'altra tendenza è il passaggio dalla produzione pesante iniziale alla penetrazione in più scenari. Quindi, in quali settori verticali si concentrerà inizialmente l'AI? Quando raggiungerà un'adozione diffusa? Questo è strettamente legato alla potenza di calcolo sottostante, al fattore di forma del dispositivo e alla maturità del sistema operativo—tutti elementi interconnessi. Vediamo che la seconda metà dell'era del PC incarna questa penetrazione multi-scenario.
Oggi, nuove variabili come GPU, TPU e la NPU integrata di RISC-V stanno guidando l'evoluzione dei sistemi, e questi cambiamenti di sistema permeeranno lo strato applicativo. Quando sarà il momento giusto, emergeranno molte applicazioni AI-native interessanti, rendendo il Copilot locale ancora più potente. Tuttavia, ci sono molti elementi chiave nella catena industriale, che richiedono un'attenta considerazione e osservazione dei cambiamenti nei principali attori.
Fattori in Cambiamento, Tendenze Invariabili
- 1. Portabilità: Da pesante a portatile, minore consumo energetico e dispositivi più leggeri – riducendo significativamente il costo di ingresso nel mondo digitale.
- 2. Multi-scenario: Gioco, disegno, programmazione e periferiche correlate – espandendo significativamente i confini delle applicazioni digitali.
Qual è la Chiave per Stabilire una Nuova Categoria? Dispositivi Specializzati vs. Dispositivi di Calcolo a Uso Generale
In questo processo, ho realizzato una domanda interessante: come si confrontano gli hardware AI multi-forma di oggi con lo sviluppo del PC del passato? Quali innovazioni di dispositivi saranno inglobate dal PC, e quali no? Il PC era così dominante allora, proprio come smartphone, laptop e cloud computing lo sono oggi. Quindi, in quali scenari si è verificata una divergenza tra dispositivi specializzati e dispositivi a uso generale, che alla fine non sono stati sostituiti da un dispositivo unico e unificato?
Ho scoperto che la console di gioco lanciata da Nintendo nel 1983 usava in realtà lo stesso chip dell'Apple I e II, ma divenne un dispositivo specializzato. Ancora oggi, acquistare una PS5 o Xbox segue la stessa logica. Pertanto, quando uno scenario verticale ha una profondità sufficiente nelle esigenze di calcolo, nei requisiti di sistema e negli scenari di applicazione, può formare una categoria indipendente di dispositivi specializzati. Il PDA del 1999 è un altro esempio. Usava dispositivi relativamente obsoleti e a basso consumo per soddisfare la necessità di un assistente digitale personale. Sebbene il PDA di allora non fosse ancora un telefono, ma solo uno strumento a basso costo per la gestione di appuntamenti e contatti, era molto più economico di un PC e occupava un piccolo ecosistema di dispositivi portatili, che può essere visto come un precursore del telefono cellulare. Ma non fu completamente sostituito dai laptop successivi; invece, lo sviluppo dei telefoni cellulari lo superò.
Tra il 1980 e il 2000, è emerso un dispositivo di calcolo unico e unificato nell'industria informatica? La parola chiave è “profondità dello scenario.”

NES – 1983
MOS Technology 6502

PDA – 1999
Motorola DragonBall 16 MHz
Il confine tra dispositivi specializzati e dispositivi a uso generale ci ispira a riflettere: quali degli hardware intelligenti AI di oggi saranno inglobati dai telefoni AI, e quali si differenzieranno autonomamente in nuove categorie come i giocattoli AI? In termini di profondità dello scenario e investimento in risorse, possiamo usare le console di gioco e i PDA come analogie per un pensiero approfondito.
A margine, i primi processori a 8 bit avevano prestazioni di calcolo che non potevano competere con gli attuali processori ARM; erano comparabili al controller del display del tuo frigorifero o microonde di casa. Un computer del 1980 era essenzialmente al livello di calcolo del tuo frigorifero domestico. Il punto è: guardando indietro, non era potente come si potrebbe immaginare, eppure ha gettato le basi per l'intera industria del PC e lo sviluppo di internet.
| Dimensione di Confronto | PDA | PC nel 1999 |
|---|---|---|
| Potenza di calcolo | Processore a bassa prestazione (es. Motorola DragonBall 16 MHz), 2-16 MB di RAM, spazio di archiviazione limitato; capacità grafiche e multimediali deboli. | Processore ad alte prestazioni (es. Intel Pentium III 500 MHz); 64-256 MB di RAM, capacità hard disk 10-20 GB; potenti capacità di elaborazione grafica e multimediale. |
| Costo | Fascia di prezzo: $200-$600; Principalmente per la Gestione delle Informazioni Personali (PIM), elevato rapporto qualità-prezzo. |
Fascia di prezzo: $1000-$2000; Fornisce funzioni di calcolo complete, ampia gamma di applicazioni, elevato rapporto qualità-prezzo. |
| Consumo energetico | Design a basso consumo, alimentato a batteria; Lunga durata della batteria, consumo energetico da poche centinaia di milliwatt a pochi watt. |
Alto consumo energetico, tipicamente 100-300 watt; Richiede alimentazione continua, scarsa portabilità. |
| Scenari di applicazione | Gestione del calendario, gestione dei contatti, liste di attività; Elaborazione di testo semplice, appunti, email; enfatizza portabilità e immediatezza. |
Lavoro d'ufficio (elaborazione testi, fogli di calcolo); Intrattenimento (giochi, musica, film); Navigazione internet e comunicazione, sviluppo software, design grafico, ecc. |
| Portabilità | Piccole dimensioni, peso leggero; facile da trasportare e usare in qualsiasi momento e luogo. | Grande dimensione, peso elevato; per uso in una posizione fissa, non facile da trasportare. |
PC AI di oggi, applicazioni e nuove opportunità
Tornando al presente, anche se gli elementi della catena industriale sono cambiati, ciò che rimane invariato è la domanda delle persone per la ritenzione, produzione e diffusione dei dati. A un livello astratto, i bisogni delle persone stanno passando dalle operazioni GUI alla necessità di un concorrente o di un agente intelligente che completi automaticamente codice o compiti. Ciò che rimane costante dovrebbe essere la necessità di acquisire e conservare informazioni. Con l’implementazione di Copilot, i creatori possono inserire un contesto e lasciare che la macchina li aiuti a ottenere script creativi o a capire cosa stanno facendo i loro pari.
Ad esempio, un’azienda può usare un agente per monitorare in tempo reale tutte le innovazioni rilevanti del settore e generare automaticamente report settimanali. Questi modi di trattenere e acquisire dati di produzione diventeranno più intelligenti e sofisticati. E il supporto per questo sarà sicuramente diverso da un PC tradizionale; sarà un dispositivo di calcolo sempre attivo e in tempo reale. In passato, le persone avevano bisogno di usare un mouse e un’interfaccia grafica per essere produttive; ma quando l’intelligenza è direttamente integrata nel dispositivo di calcolo, può agire in modo indipendente. Ciò significa che l’interazione uomo-computer non deve più dipendere da un mouse e da uno schermo. Puoi assegnargli un compito e lui può completarlo direttamente.
E il processo per raggiungere tutto ciò rivela un modello che si può osservare nel microcosmo degli ultimi 40 anni. Pertanto, queste esigenze di base hanno coerenza! La nuova produttività guidata da GPT sarà ancora dominata dagli scenari di produttività nelle fasi iniziali, proprio come Lotus 1-2-3 nell’era DOS! Possiamo costruire su questa base, aggiungere nuove variabili di produzione e trovare possibili scenari di applicazione precoce. Combinando con l’industria del gaming, l’industria dell’elaborazione delle immagini e i metodi di produzione, acquisizione e diffusione dei dati menzionati in precedenza, possiamo esplorare teoricamente tutte le possibilità.
Ritenzione: La macchina acquisisce informazioni, fornisce raccomandazioni personalizzate.
Produzione: I modelli partecipano al processo decisionale e assistono nella produzione.
Diffusione: La macchina gestisce automaticamente distribuzione e diffusione.
Nuovi fattori di produzione
Ora possiamo vedere emergere quattro nuovi fattori di produzione: lo sviluppo di GPU e TPU, nuovi modelli di sistemi operativi, la privatizzazione dei dati e la quantità di dati unici degli utenti detenuti. Quando questi fattori si combinano, potremmo assistere alla nascita di un dispositivo di calcolo completamente nuovo “integrato calcolo-e-archiviazione”. La sua posizione è diversa da quella di telefoni cellulari, laptop e persino del cloud pubblico. Cercherò di elencarne chiaramente le caratteristiche in una tabella.
Dati privati |
Modelli di grandi dimensioni |
Potenza di calcolo GPU/TPU |
Applicazioni |
|
|
|
|
Autore: Brian Kerrigan |
- Dati Privati: Risorse di dati proprietari di alta qualità all'interno di un'organizzazione o dati acquisiti privatamente da macchine sono risorse chiave per l'addestramento e l'ottimizzazione dei modelli AI.
- Capacità di Modello Grande: La capacità di comprendere, generare e ragionare, adattabile a vari compiti e scenari.
- Potenza di Calcolo GPU o ASIC: Hardware specializzato ad alte prestazioni per l'inferenza.
- Applicazioni AI: Nuove applicazioni basate su LLM integrate in vari scenari.
Scenari e Operatori – Una Tabella
| Confronto | Telefono Mobile | Cloud Privato | Cloud Pubblico |
|---|---|---|---|
| Applicazione AI | Leggero, Copilota | Capacità di Inferenza Privata, Agente | OpenAI, Agente |
| Capacità di Modello Grande | 3B | 7B – 100B | 405B |
| Prestazioni di Calcolo | Chip Mobile, Basso Consumo 6W 20 TOPS |
GPU / ASIC, Prestazioni Medio-Alte 200W 200 TOPS |
Cluster ad Alte Prestazioni, Scalabilità Elastico |
| Sistema Operativo | Android, iOS Esecuzione a Runtime Accesso Completo ai Dati |
OS Cloud Privato Esecuzione Attività in Tempo Reale Accesso Completo ai Dati |
Sistema Specifico per Piattaforma Cloud Esecuzione Attività in Tempo Reale Autorizzazione Parziale |
| Archiviazione Dati | 2TB | Capacità Scalabile, Centinaia di TB | Capacità Scalabile |
| Durata della Batteria | Pacco Batteria 12 Ore |
Collegato ♾️ |
Collegato ♾️ |
A causa delle limitazioni della durata della batteria, abbiamo constatato che il calcolo sta diventando sempre più leggero, il che ha portato agli attuali telefoni e laptop. Pertanto, la traiettoria dello sviluppo tecnologico è sempre stata verso la portabilità e la collaborazione, che sono esigenze a lungo termine delle persone. Proprio come lo sviluppo dell'e-commerce, le persone cercano marchi di qualità superiore e esperienze leggere, desiderando batterie e telefoni più portatili. Tuttavia, la potenza di calcolo e la durata della batteria sono limitate dai limiti di energia e consumo, che restringono il livello di intelligenza dei modelli che possono girare sui dispositivi, attualmente tipicamente al livello di 3 miliardi di parametri.
Ciò significa che quando Windows o il sistema Android di nuova generazione saranno pronti, probabilmente si baseranno su modelli di livello 3B e Copilot, ispirando una nuova generazione di applicazioni AI, come browser guidati da AI, strumenti di risposta email, ecc. Lo spazio per queste applicazioni è limitato, ma saranno comunque molto interessanti perché possono eseguire solo modelli di livello 3B dietro le quinte. Questa è una fase che telefoni e laptop inevitabilmente attraverseranno perché, dal punto di vista del processo al silicio, la potenza di calcolo AI per watt non cambierà drasticamente in fretta.
D'altra parte, c'è il puro cloud computing. Ma il problema con il cloud è: sei disposto a consegnare i tuoi dati da piattaforme come Notion, Slack e Lark a un fornitore cloud? O sei disposto a dare a un singolo provider di servizi cloud l'accesso completo ai tuoi account Taobao, WeChat e finanziari? Questo ovviamente comporta un enorme costo psicologico nelle decisioni. Pertanto, il cloud esisterà al livello più alto, fornendo le capacità del modello più intelligenti tramite chiamate API, penetrando e coprendo le grandi imprese.
Ma nel mezzo è emersa un'opportunità per costruire un nuovo sistema operativo. Questo sistema operativo fungerà da supporto per un agente intelligente, che gira su un dispositivo acceso 24 ore al giorno. Puoi inviargli compiti dal tuo telefono o laptop, e li eseguirà automaticamente in background. Ha una enorme capacità di archiviazione dati e, poiché non ci sono vincoli di potenza di calcolo, può essere dotato di una GPU da cento watt, offrendo circa 200 TOPS di potenza di calcolo AI. L'iterazione di TPU e NPU ridurrà ulteriormente il costo della potenza di calcolo, simile all'evoluzione del primo chip 8088.
Su questa base, può essere costruito un modello in tempo reale, sufficientemente intelligente, per servire tutti. Mappato al presente, questi sono i modelli di grandi dimensioni da 7B a 100B che tutti stanno rilasciando, che, dopo la quantizzazione, possono funzionare interamente su un'architettura di calcolo da 200 TOPS. Se c'è un adeguato supporto del sistema operativo, emergerà un ricco ecosistema di applicazioni per agenti intelligenti. Questi modelli a livello di sistema sono finemente ottimizzati, ciò che spesso chiamiamo modelli edge. Sebbene la catena industriale abbia molti elementi, questo nuovo dispositivo ha un posizionamento chiaro. Proprio come il laptop che acquisti, puoi accedere a vari account senza preoccuparti troppo dei problemi di sicurezza dei dati, perché è il tuo dispositivo di calcolo personale. È abbastanza intelligente da servirti 24 ore su 24.
Creatori, Ingegneri e Lavoratori della Conoscenza
![]() Creatori |
![]() Freelance |
![]() Programmatori |
A parte le innovazioni front-end come occhiali e cuffie, sul back-end è molto probabile che emerga un dispositivo di calcolo personale, che passi dalla produttività all'uso consumer. Si tratta di un dispositivo che passa dal calcolo puro a un'integrazione di calcolo e archiviazione. Oggi, la mobilità dei dati e la collaborazione sono migliorate, mentre la domanda di potenza di calcolo è in aumento. Un dispositivo integrato di calcolo e archiviazione diventa un supporto necessario per un agente intelligente personale.
Inizialmente, tali dispositivi possono concentrarsi su gruppi come creatori, ingegneri e lavoratori della conoscenza per entrare nel mercato. Tipicamente hanno una grande quantità di dati multimediali ricchi e necessità di gestione degli asset e richiedono strumenti di produttività per soddisfare i loro punti critici in termini di archiviazione e collaborazione. Questo è simile al percorso di penetrazione dei primi PC, rivolgendosi a utenti disposti a pagare e con una forte domanda di produttività, entrando così in questo nuovo campo di battaglia.
ZimaCube – Il Cloud Privato del Creatore
Recentemente abbiamo condotto ulteriori interviste con numerosi creatori e professionisti dei contenuti, scoprendo una gamma più ampia di scenari applicativi. In effetti, questa categoria ha una pipeline molto lunga. L'approccio di ZimaCube è più simile all'integrazione verticale di Apple, e dobbiamo ripensare come procedere nelle diverse fasi. Attualmente, il NAS (Network Attached Storage) funge da supporto per l'AI. Ha un proprio processo iterativo. All'interno di questo processo, stiamo raggiungendo la commercializzazione attraverso l'integrazione verticale delle soluzioni cloud private dei creatori.
![]() |
![]() |
L'hardware non è una barriera, ma il punto di partenza; necessita di una certa unicità. |
Sistema e applicazioni servono lo scenario. |
L'hardware è il punto di partenza; tutto inizia dall'hardware, ma il valore dello scenario risiede nelle applicazioni. Un ecosistema di applicazioni aperto può aiutarci ad assorbire varie applicazioni emergenti come Lotus 1-2-3 in passato. Non è necessario affrettarsi a investire molte risorse nello sviluppo di applicazioni; invece, dovremmo costruire una piattaforma e promuoverla attraverso operazioni basate sulla comunità.
Sistema e Applicazioni di Terze Parti

Rimanere aperti, incorporare applicazioni mainstream dalla comunità LocalLLM e costruire un App Store con documentazione e standard applicativi unici.
La Necessità di Combinare Sistemi e Comunità in un Contesto Aziendale Globale
Tuttavia, i prodotti ibridi hardware e software sono davvero difficili da creare. Nell’attuale Cina, molte aziende innovative richiedono capacità doppie. In termini di capacità organizzative, da un lato devono seguire un approccio “waterfall” per la gestione hardware e i processi produttivi per controllare costi e rischi hardware; dall’altro, devono costruire una logica agile e iterativa per aggiornare i sistemi software su base settimanale o mensile.
Le comunità possono essere un eccellente veicolo per alimentare i bisogni e i feedback degli utenti globali nei nostri sistemi software. L’hardware in sé potrebbe non richiedere aggiornamenti frequenti. Se vendi una power bank, le valutazioni di Amazon e la gestione waterfall possono completare la definizione del prodotto e un ciclo di vendita annuale. Ma oggi, ci sono poche nicchie per aziende creative che si affidano esclusivamente alla fornitura di hardware. La maggior parte delle categorie che si basano su economie di scala sono dominate da giganti, e non esistono nuove strutture di traffico che possano espandere rapidamente il mercato.
Una Sfida Universale: Un Appello per la Prossima Generazione di Costruttori di Piattaforme
La storia ci insegna che ogni era del computing è definita in ultima analisi da una o poche piattaforme dominanti. Oggi, costruire questa nuova piattaforma è un’opportunità e una sfida condivisa da tutti gli innovatori a livello globale. Ciò richiede una capacità senza precedenti e completa che trascende i confini:
Integrazione Profonda di Hardware e Software: Questo richiede la fusione perfetta del rigore “waterfall” dello sviluppo hardware con l’iterazione “agile” del software. L’innovazione di successo non riguarda più solo hardware o software, ma un “Prodotto Ibrido” perfettamente integrato.
Co-costruire Ecosistemi e Comunità: Proprio come l’Homebrew Computer Club ha dato il via alla rivoluzione del PC, le comunità open-source di oggi (come LocalLLM) sono la culla per la prossima generazione di “killer app.” Un sistema chiuso può vincere per un momento, ma solo un ecosistema aperto può vincere il futuro.
Pertanto, la lezione definitiva degli anni ’80 non riguarda la geografia, ma la visione. I vincitori di quell’epoca hanno trionfato non perché si trovassero nella Silicon Valley, ma perché hanno integrato con successo chip, sistemi e applicazioni in una piattaforma che ha dato potere alle persone e ha inaugurato una nuova era.
Oggi il palcoscenico è pronto. Per imprenditori e investitori di tutto il mondo, la vera domanda non è “dove” innovare, ma “come” organizzare efficacemente i nuovi fattori di produzione—dati privati, modelli di AI e potenza di calcolo accessibile—in una nuova piattaforma incentrata sull’uomo che liberi la creatività. Non si tratta di una performance solista di un singolo paese o regione, ma di un impegno globale che ci riguarda tutti, volto a rimodellare il futuro del computing.






















