Dieser Inhalt stammt aus einer Sharing-Session von IceWhale Technology innerhalb des FreeS Fund. Er zielt darauf ab, die wichtigsten Transformationen, Entwicklungstrends, kritischen Ereignisse und die zugrunde liegenden konstanten Verbrauchernachfragen der PC-Industrie des Silicon Valley in den 1980er Jahren zu überprüfen. Der Artikel ist ziemlich lang und behandelt den Zustand der Chips in den 1980er Jahren, den Beginn und die Durchdringung von PCs, die Veränderungen in DOS- und Windows 1.0-Systemen von 1980-1990, frühe Killer-Apps für PCs und Kaltstart-Szenarien. Wir hoffen, Sie können ihn geduldig lesen, um Ihre Investitionsentscheidungen und Produktinnovationen im Bereich KI-Hardware und -Anwendungen zu inspirieren.
Ein Zitat von Ray Dalio von Bridgewater Associates entlehnt:
Die Idee, dass die Menschheitsgeschichte sich wiederholende Muster hat, ist einfach Realität. Vielleicht ist „Zyklus“ nicht das richtige Wort dafür, vielleicht sollte es ein Muster sein, aber ich denke, beide beschreiben den Prozess.
—— Ray Dalio
Der Aufstieg des PCs, der Prozess der Informatisierung und die vier Schlüsselelemente
Computer History Museum, Silicon Valley der 1980er Jahre

Apple I – 1976
$666
Autor: The wub
Lizenz: Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 4.0

Apple II – 1977
MOS Technology 6502, 8-Bit, Farbe, 1200 $+, 8 Erweiterungssteckplätze
Autor: Rama
Lizenz: CC BY 2.0

Commodore 64 – 1982
595 $ -> 299 $
Autor: Bill Bertram
Lizenz: Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 2.5
Heute, da OpenAI, Google und Microsoft die „Ära der Intelligenz“ basierend auf großen Modellen definieren, blicken wir zunächst zurück auf das frühe „Informationszeitalter“, das durch die Geburt des PCs 1976 geprägt wurde. In diesem Moment wurde der Apple I geboren. Dieser Computer wurde von Steve Jobs und Steve Wozniak in einer Geek-Community namens Homebrew Computer Club vorgestellt und kostete 600 $. Die Veröffentlichung des Apple I im Club war ähnlich wie ein heutiges Online-Crowdfunding-Projekt auf Kickstarter. Er richtete sich nur an Technikbegeisterte, erforderte die manuelle Montage der Teile und wurde als Bausatz verkauft… die frühen Verkäufe lagen bei etwas über 200 Einheiten. Doch dieses Produkt legte die Grundlage für Apple und half Jobs und seinem Team, ihre erste Gruppe von Seed-Nutzern zu gewinnen.
Kurz darauf, 1977, brachte Apple den Apple II heraus. Diese Generation war nicht nur optisch verfeinert und bot Farbanzeige, sondern enthielt auch Erweiterungssteckplätze und ein integriertes Gehäuse, was es Technikbegeisterten erleichterte, zu erweitern und selbst zu basteln. Andere Kern-Spezifikationen änderten sich jedoch kaum. Die Veröffentlichung des Apple II war ein Meilenstein; er kostete 1250 $, weit unter den damals teuren kommerziellen Computern.
Vier Jahre später entsandte IBM, angeblich unter Marktdruck, ein schlankes Team von 12 Personen, um ein Projekt mit dem Codenamen „Project Chess“ zu starten und seine Position als Branchenführer zu behaupten. Als führendes Unternehmen mussten sie natürlich ein starkes Zeichen setzen. Sie führten den IBM PC ein, basierend auf einem Intel-Prozessor, und setzten auf eine offene Hardware-Architektur. Dies öffnete anderen Herstellern die Tür, kompatible Geräte zu entwickeln, was wiederum die Entstehung des Wintel-Ökosystems förderte. IBMs offene Strategie führte schnell dazu, dass sein PC-Standard vom Markt akzeptiert wurde.
Der Commodore 64 im Jahr 1982 ist ein weiteres erwähnenswertes Unternehmen, obwohl es nicht sehr weit kam. In seinen frühen Tagen erkannte es mehrere Schlüsselstrategien richtig. Er bot führende Grafik- und Audioleistung zu einem wettbewerbsfähigen Preis von 595 $, was gut ankam. Gleichzeitig priorisierte Commodore die Expansion in den europäischen Markt, wobei über die Hälfte des Umsatzes aus Europa stammte. Durch die Nutzung lokaler Vertriebsnetze und Werbung gewann es schnell an Popularität und legte eine solide Grundlage für seine Präsenz im globalen Heimcomputermarkt.
So wie es heute zahlreiche Unterkanäle auf Reddit für große Modelle wie ChatGPT, LocalLLM und Stable Diffusion gibt, entstanden in den frühen Tagen jeder Ära viele talentierte Personen und Ideen aus Online- und Offline-Communities. Das ist der heutigen Welt nicht so fremd, da viele Tech-Giganten früher in BBS-Foren unterwegs waren, als das Internet gerade erst aufkam, bevor sie sich in verschiedene Branchen zerstreuten. Heute hat die Community um große Modelle an führenden Universitäten ähnliche Eigenschaften.
Aber was noch interessanter ist, ist, dass solche Clubs dazu neigen, innerhalb eines Jahrzehnts allmählich zu verschwinden. Das Muster ist, dass wenn eine neue Kategorie entsteht, sie eine Gruppe von Enthusiasten anzieht, die in der Community sehr aktiv sind, verschiedene Ideen vorschlagen und sogar frühe Produktprototypen erstellen. Wenn große Unternehmen eingreifen und die Innovation sich auf Kommerzialisierung verlagert, reifen die frühen, von der Community ausgehenden Ideen allmählich heran und gewinnen an Substanz. Diese Gemeinschaften haben jedoch oft ein „Schicksal“: Sie sind während Phasen aktiver Innovation äußerst florierend, aber ihre Popularität schwindet, wenn die Branche reift und Giganten entstehen. Der Homebrew Computer Club sowie die Entwicklung der heutigen Modellindustrie, des 3D-Drucks und der Quadrocopter folgen alle diesem „Boom-und-Bust“-Muster.
![]() Autor: ZyMOS |
Der Intel 8088 ist ein klassischer Prozessor, der 1979 veröffentlicht wurde und im IBM-PC verwendet wurde.
|
Zweitens betrachten wir die Chips jener Zeit, die die Grundlage für die PC-Kategorie bildeten. Die Definition eines PCs ist untrennbar mit dem kontinuierlichen Rückgang der Chipkosten und „gerade ausreichender“ Rechenleistung verbunden. Die Eignung für den Gebrauch und die Erschwinglichkeit ermöglichten den PCs den Eintritt in den Massenmarkt. Der Intel 8088 ist ein typisches Beispiel. Der 8088 passte die Busbreite im Vergleich zu seinem Vorgänger, dem 8086, an, was zu geringeren Kosten führte und ihm erlaubte, der Kernchip des IBM-PCs zu werden.
Damals war IBMs Hauptgeschäfts- und Militär-Computerausrüstung sehr groß und leistungsstark, aber für den persönlichen Markt völlig „overkill“. Der 8088 hingegen war ein Schritt zurück, bot ausgewogene Rechenleistung zu geringeren Kosten, ähnlich wie heutige NAS (Network Attached Storage)-Geräte, die kommerzielle Server auf eine Größe und Rechenleistung vereinfachen, die für den Heimgebrauch geeignet ist, sodass Einzelpersonen ihre eigenen kleinen Computerlösungen haben können.
Wenn NVIDIAs H200 heute der kommerzielle Marktführer ist, wer entwickelt dann die ASIC-Chips, die Modelle in verschiedene Computerterminals wie AI-PCs oder AI-NAS bringen werden?
Die Evolution der Systeme – Jede Generation preist ihre „benutzerfreundliche Oberfläche“ an
So wie heute jedes Unternehmen behauptet, ein „intelligentes System“ zu haben

Autor: Vadim Rumyantsev
Gemeinfrei
Technikbegeisterte, Kleinunternehmen
Kommandozeilen-Schnittstelle

Autor: leighklotz
Creative Commons Attribution 2.0 Generic
Unternehmensanwender
Erster mit GUI; ein Luxusartikel zum Preis von 16.595 $…

Autor: Eric Chan aus Hongkong
Creative Commons Attribution 2.0
Massenkonsumenten, Kreativprofis, Bildung
Weitverbreitete Einführung der GUI
DOS – Disk Operating System
Drittens werfen wir einen Blick auf die frühen Betriebssysteme. So wie heute Modelle „feinabgestimmt“ werden, war es im Grunde etwas, womit nur Ingenieure herumexperimentieren konnten. Um 1978-79 arbeiteten nur etwa zehntausend Ingenieure im Silicon Valley mit DOS-Systemen, die vollständig auf der Kommandozeile basierten und keine grafische Benutzeroberfläche hatten. In dieser Phase waren Betriebssysteme weit davon entfernt, den täglichen Gebrauch in Unternehmen und der Allgemeinheit zu durchdringen, ähnlich wie KI-Modelle heute, die noch immer in den Händen einer Gruppe von Technikbegeisterten sind.
Erst 1981, mit der Einführung des ersten PCs von IBM, gewann das DOS-System allmählich mehr Aufmerksamkeit, war aber immer noch eine Befehlszeilenversion ohne GUI. Die damaligen Rechenszenarien ähnelten daher sehr der heutigen KI: Sie erforderten eine große Anzahl von Technikbegeisterten und Ingenieuren, die wiederholt anpassten und integrierten, um spezifische Anwendungen zu realisieren. Was PCs und Betriebssysteme wirklich auf Unternehmensebene brachte, war die grafische Benutzeroberfläche (GUI) des Xerox Star, die die erste echte Welle der Nutzererweiterung einläutete.
1984 erweiterte das von Apple eingeführte grafische Schnittstellensystem die Nutzerbasis weiter auf kreative, pädagogische und andere professionelle Bereiche und öffnete langsam die Massenanwendung von Betriebssystemen. Während dieser Zeit koexistierten DOS- und GUI-Systeme jedoch lange, wobei Unternehmen zwei separate Systeme für unterschiedliche Bedürfnisse unterhielten.
Das Anwendungsökosystem der frühen 1980er Jahre, was wir heute „Killer-Apps“ nennen
|
Lotus 1-2-3 – 1982
Autor: Odacir Blanco |
WordPerfect – 1985
Lizenz: Public Domain |
Viertens das Anwendungssystem-Ökosystem, das sich allmählich parallel zu den System- und Hardwarefähigkeiten entwickelte! Hier sind einige repräsentative Anwendungen und ein Einblick in ihren Durchdringungspfad in der PC-Produktivitätsrevolution.
In diesen frühen UI-Systemen hatte der Markt noch nicht das Verbraucherniveau erreicht und bestand hauptsächlich aus Produktivitätsszenarien. Einige Anwendungen begannen hervorzustechen, wie Lotus 1-2-3, eine berühmte Finanzverwaltungssoftware und eine frühe Version von Excel. WordPerfect, veröffentlicht 1985, wurde hauptsächlich im juristischen und akademischen Bereich verwendet. Diese Bearbeitungsoperationen erfolgten jedoch nicht über eine ausgefeilte grafische Benutzeroberfläche, sondern basierten auf der DOS-Befehlszeile. Wissensarbeiter mussten die entsprechenden Befehlszeilenoperationen erlernen, um Bearbeitungsaufgaben zu erledigen.
Im akademischen Forschungsbereich brachte die Nutzung von PCs zur Dokumentendigitalisierung und Zusammenarbeit enorme Effizienzsteigerungen. Daher war bis 1988 die Durchdringungsrate von PCs in der Wissenschaft sehr hoch für Szenarien wie Dateiübertragung, E-Mail-Kommunikation und Textbearbeitung. Erst 1989, mit der Verbesserung der CPU-Rechenleistung und der GUI-Verarbeitungskapazitäten, begann es jedoch, einen großen Einfluss auf Branchen wie Druck und Werbedesign zu haben. Das ist heute ähnlich; obwohl OpenAI ein Video-Weltmodell veröffentlicht hat, wurde es nicht schnell in praktischen Szenarien angewendet, da die Reifung der Rechenressourcen und der GUI-Technologie Zeit benötigt.
|
CorelDRAW – 1989
Grafikdesigner, Druckindustrie |
Quicken – 1984
Privatanwender, kleine Unternehmen |
Flight Simulator – 1985
Flugbegeisterte, Studenten |
In den Anfangstagen einer neuen Computerplattform hat die Anwendungsinnovation, die tief in vertikale Szenarien eindringt, weiterhin einen enormen Wert für die Branche. Wenn wir eine Analogie zur Gegenwart ziehen, glaube ich, dass im nächsten Jahr, wenn die TPU-Rechenleistung in PCs bereitsteht und Windows als standardisiertes Zwischenbetriebssystem leistungsstarke KI-Rechenleistung für Anwendungen der oberen Schicht bereitstellen kann, eine neue Welle von KI-bezogenen, Copilot-ähnlichen PC-Anwendungen entstehen wird, die direkt am Edge laufen.
In diesem Kontext vertiefte Quicken die Erfahrung in Geschäftsszenarien auf Basis von Lotus weiter. Es verbesserte die Interaktionsoberfläche und Konfigurierbarkeit des ursprünglichen DOS-Systems und entwickelte sich tiefgehend für die Bedürfnisse des Finanzmanagements und kleiner Unternehmen. Dies gab diesen frühen Anwendungen einen guten Überlebensraum.
Die Preise für diese Anwendungen waren jedoch ziemlich hoch. Zum Beispiel kostete Lotus 1-2-3 fast 500 $, was 1985 eine sehr teure Lösung war. Dies zeigt, dass frühe Produktivitätsszenarien hauptsächlich von Verbrauchern mit hoher Kaufkraft angetrieben wurden.
Darüber hinaus gab es einige Spiele und Simulatoren für Enthusiasten, wie den „Flight Simulator“ unter Windows, die vielfältigere und leichtere Produktmerkmale boten und neue Nutzer anzogen, die gerne erkundeten und experimentierten. Daher sehen wir, dass das frühe PC-Ökosystem durch eine Kombination aus leistungsstarken Produktivitätstools, der Durchdringung von kleinen und mittleren Unternehmen, industrieller und akademischer Forschung sowie einigen interessanten Durchbruchsanwendungen aufgebaut wurde. Der Zeitrahmen für diesen Prozess war jedoch sehr lang, da sich die zugrundeliegenden DOS- und GUI-Technologien relativ langsam entwickelten.
Insbesondere spielten Anwendungsanbieter wie Lotus eine Schlüsselrolle. Sie waren keine Betriebssystemanbieter; letztere konzentrierten sich auf den Aufbau der Zuverlässigkeit, Ressourcenplanung und Skalierbarkeit des Systems. Im Zeitraum von 1982 bis 1990, also innerhalb von 8 bis 9 Jahren, nutzte Lotus die Gelegenheit, eine Marktlücke zu füllen. Apple und Microsoft begannen erst in den 1990er Jahren, ihre vollständigen Office-Suiten zu veröffentlichen, was diesen systemnahen Anwendungen einen Marktvorteil von 7 bis 8 Jahren verschaffte. Sie nutzten die Popularität des IBM PC und des DOS-Systems, um schnell in den Bereichen Unternehmensanwender, Finanzbuchhaltung und anderen Feldern Fuß zu fassen. Diese Nutzer hatten einen starken Bedarf an Datenverarbeitung, und die Kombination aus den neuen Computern und der Software von Lotus erreichte in diesen Szenarien eine vollständige Durchdringung.
Windows 1.0 und Ballmers „verrückte“ Verkaufsstrategie
Zurück ins Jahr 1985, hatte Lotus bereits einen Marktanteil von über 50 %. Angesichts des hohen Preises von 495 $ ist es nicht schwer zu verstehen, warum Steve Ballmer bei der Bewerbung von Windows 1.0 betonte: „Wir bieten ein Schachspiel, eine Tabellenkalkulation und Bildverarbeitung für nur 99 $, nicht 500 oder 600 $.“ Zu dieser Zeit war die Preisgestaltung von Software ein sehr attraktives Verkaufsargument im Marketing. Beim Verkauf des Betriebssystems bot spezialisierte Grafiksoftware wie CorelDRAW, die etwas später Photoshop ähnelte, den Nutzern professionelle Bildbearbeitungsfunktionen.
Lotus 1-2-3
Unternehmen: Lotus Development Corporation
Hintergrund: Lotus 1-2-3 wurde von der Lotus Development Corporation entwickelt, die 1982 von Mitch Kapor gegründet wurde. Lotus 1-2-3 war die erste Software für den IBM PC, die integrierte Tabellenkalkulations-, Grafik- und Datenbankverwaltungsfunktionen anbot und wurde schnell zu einer der beliebtesten Anwendungssoftwares, besonders bei Geschäfts- und Unternehmenskunden.
Benutzerprofil: Die Hauptnutzer waren Unternehmensanwender, insbesondere Finanzanalysten, Buchhalter und Manager. Diese Nutzer verfügten typischerweise über ein gewisses technisches Wissen und waren sehr datenaffin.
Hauptanwendungsfälle: Wurde für Datenmanagement, komplexe Finanzmodellierung, Budgetierung, Berichtserstellung und verschiedene andere Formen der Datenanalyse verwendet. Die leistungsstarken Funktionen von Lotus 1-2-3 machten es zur ersten Wahl für Tabellenkalkulationen in Unternehmen.
1983: Lotus 1-2-3 wurde eingeführt und wurde schnell Marktführer, besonders auf IBM-PC-kompatiblen Systemen.
1985: Marktanteil überstieg 50 %, mit einem Preis von 495 $.
CorelDRAW
Unternehmen: Corel Corporation
Hintergrund: Ende der 1980er Jahre, mit der Verbreitung grafischer Benutzeroberflächen (GUIs) und Personal Computern (PCs), wuchsen die Märkte für Grafikdesign und Desktop-Publishing schnell. Traditionelle Designprozesse (manuelles Zeichnen und Satz) begannen sich digital zu wandeln.
Benutzerprofil: Hatten ein gewisses Verständnis für Computergrafikdesign, waren aber nicht unbedingt technische Experten.
- Professionelle Designer und Illustratoren: Benötigten präzise Vektorzeichnungswerkzeuge, um Illustrationen, Logos und andere Designarbeiten zu erstellen.
- Desktop-Publishing (DTP) Fachleute: Mussten Text und Grafiken kombinieren, um Bücher, Magazine, Werbematerialien usw. zu produzieren.
- Kleine und mittlere Unternehmen sowie Freiberufler: Nutzt CorelDRAW, um Firmenlogos, Werbeanzeigen und Marketingmaterialien ohne teure spezialisierte Design-Hardware und -Software zu erstellen.
1989: CorelDRAW 1.0 war die erste Software, die Vektorgrafikdesign und Desktop-Publishing-Funktionen kombinierte, und ihr Start leitete eine Revolution im Bereich Grafikdesign ein. Diese Version unterstützte Funktionen wie mehrere Seiten, Kurvenbearbeitung und Textverarbeitung.
Vom erworbenen MS-DOS 1.0 zu Windows + Office
| Zeit | Titel | Einzelheiten |
|---|---|---|
| 1981 | MS-DOS 1.0 | Partnerschaft mit IBM bestätigt |
| 1982 | MS-DOS 1.25 | Lizenziert an Drittanbieter-kompatible Marken |
| 1983 | MS-DOS 2.0 Microsoft Word |
Erweiterte Systemfunktionalität Unterstützung für Festplatten und Verzeichnisstrukturen |
| 1985 | Windows 1.0 | Fügte eine grafische Oberfläche über Microsoft MS-DOS hinzu |
| 1987 | Windows 2.0 | Bessere Grafikunterstützung und Leistung Überlappende Fenster und Tastenkürzel |
| 1988 | MS-DOS 4.0 | Führte die grafische Benutzeroberfläche DOS Shell ein |
| 1989 | Microsoft Office | Bietet Büroautomatisierungsintegration für Windows |
Der Aufstieg von Microsoft lag vielleicht nicht an den Anfangsprodukten, sondern an der hervorragenden Geschäftsstrategie. Früh zeigte Microsoft ein scharfes Geschäftsgespür, indem es ein Drittanbieter-Betriebssystem namens 86-DOS erwarb [ja, sie kauften es…]. Dieser Schritt machte sie zu einem wichtigen Partner für IBM. Überraschenderweise expandierte Microsoft im zweiten Jahr schnell und kooperierte mit anderen Hardwareherstellern, ähnlich wie heute nach der Definition von Industriestandards durch Tesla zahlreiche Unternehmen folgten und so das gesamte ODM-Ökosystem und die Etablierung von AIPC-Standards vorantrieben.
Nachdem Microsoft den Standard definiert hatte, begannen die Hardwarehersteller zu handeln. Wenn wir heute auf den AI-PC-Markt und Edge-AI-Anwendungen blicken, sehen wir eine große Anzahl von Laptops mit 40 TOPS AI-Rechenleistung auf den Markt kommen, und Qualcomm unternimmt ähnliche Schritte. Dies bringt neue Variablen mit sich: Einerseits wird die Hardware aufgerüstet, andererseits wird die Bedeutung des Betriebssystems in der Mittelschicht hervorgehoben. Das Betriebssystem muss die 40 TOPS Rechenressourcen effektiv zuweisen, um die Anforderungen vieler Anwendungen der oberen Schicht zu erfüllen. Microsoft investierte stark in die Entwicklung des Betriebssystems und hatte lange keine Zeit, mit Lotus oder WordPerfect zu konkurrieren.
Erst im dritten Jahr begann Microsoft, WordPerfect zu imitieren [das System übernimmt wichtige Anwendungen], und dies setzte sich bis 1989 fort. Über acht Jahre hinweg festigte Microsoft seine Drittanbieter-Lizenzabdeckung für das System und begann 1985 mit dem eigenständigen Verkauf von Windows 1.0. Es ist bemerkenswert, dass Windows 1.0 erst volle vier Jahre nach dem GUI-System von Xerox veröffentlicht wurde, was den langwierigen Entwicklungsprozess von Betriebssystemen zeigt. Frühe Windows-Versionen wurden hauptsächlich mit Hardwaregeräten gebündelt, mit Verkaufszahlen von zehntausenden Einheiten in den ersten zwei bis drei Jahren und einer kumulierten Auslieferung von fünf bis sechs Millionen Einheiten innerhalb von acht Jahren.
Die Produktivitätsrevolution vs. Jeder Haushalt
Damals war der Hauptmarkt für PCs nicht auf Nordamerika beschränkt; entwickelte Länder in Europa importierten diese Geräte ebenfalls per Schiff. Die Nutzerbasis konzentrierte sich hauptsächlich auf schwere Produktivitätsszenarien. Erst 1989, als Anwendungen wie Bildverarbeitung begannen aufzutauchen, wurden neue Anwendungsfälle angetrieben. Selbst mit der Einführung von GUI-Systemen drangen sie nicht sofort in den Massenverbrauchermarkt ein. Der eigentliche Einzug in gewöhnliche Haushalte erfolgte etwa 1994, mit dem Aufstieg des Netscape-Browsers und des Internets, als immer mehr Menschen, die Computer bei der Arbeit nutzten, begannen, Geräte für ihre Zuhause zu kaufen.
Dieser technologische Entwicklungspfad, von einer Produktivitätsrevolution zu einer Verbrauchereplosion, ist in der PC-Ära deutlich sichtbar. Heute verbreiten sich Informationen schnell, und ob KI jedes Verbraucherszenario befähigen kann, muss noch zeitlich verifiziert werden. In den frühen Phasen müssen wir möglicherweise mehr Aufmerksamkeit auf Veränderungen auf der Produktions- und Angebotsseite richten.
Ein weiterer Schlüsselfaktor ist die Entwicklung der Mensch-Computer-Interaktion. Die Einführung der Maus schuf eine neue Art der Mensch-Computer-Interaktion, die die Verbreitung von PCs stark beeinflusste. Ähnlich können wir die aktuelle Struktur betrachten, indem wir Microsofts Entwicklungspfad reflektieren. Wenn das heutige OpenAI die Möglichkeit eines KI-Betriebssystems in der Cloud validiert, dann werden Anwendungen der oberen Schicht am Edge ohne Unterstützung eines Betriebssystems Schwierigkeiten haben zu wachsen. Wenn Betriebssystem und Hardware entscheidende Durchbrüche erzielen, könnten nachgelagerte Anwendungen explosionsartig wachsen.
Heute interagieren wir durch natürliche Sprache und Videostreams, und diese neuen Variablen werden auch die Anwendungsszenarien von KI beeinflussen. Kurz zusammengefasst: Der Grund, warum Microsoft von 1981 bis 1989 DOS und GUI parallel entwickelte, war, dass sie mit einer großen Anzahl von Hardwaregeräten kompatibel sein mussten. Das erklärt auch, warum Steve Jobs das Windows-System einst verachtete und es als komplex und unästhetisch ansah. Aus geschäftlicher Sicht ging Microsoft jedoch stetige Schritte: Vom Erwerb des Codes und der Einführung einer GUI bis zur Veröffentlichung von Office acht Jahre nach Lotus festigten sie ihre Position im Ökosystem auf jede erdenkliche Weise.
Ein Einblick in die aktuelle Windows-Architektur durch die Linse von Windows NT
![]() Windows-NT-Architekturdiagramm mit übersetzten Komponenten |
|
Zusammenfassung der vier Elemente – Die Variablen und konstanten Anforderungen erkennen
Chips, System, Anwendungen und Geräte
|
Speicher/Rechnen
Fahrer |
System
Grundlage |
Anwendung
Nutzerwert |
Produkt
Fahrzeug |
In diesem Prozess sind mehrere Schlüsselelemente zu beachten. Das erste ist die Entwicklung von Speicher- und Recheneinheiten. Obwohl die Kosten für frühe Chips und Speicher sanken, fielen sie nicht signifikant, was mit dem Fortschritt von Moores Gesetz zusammenhängt. Heute erfolgt die Bereitstellung von Edge Computing auch, weil die technologische Entwicklung einen bestimmten Wendepunkt erreicht hat.
Zweitens übernimmt das Betriebssystem als wichtige Middleware Schlüsselaufgaben wie Ressourcenmanagement und Geräteanpassung. Obwohl frühe Systeme nicht leistungsfähig waren, war ihre Bedeutung offensichtlich.
Drittens konnten frühe Killeranwendungen Geld verdienen, aber wenn sie nicht tief entwickelt wurden, konnten sie schließlich ersetzt werden [was heute oft als vertikale Szenarien bezeichnet wird, die Tiefe erfordern]. Ob Anwendungsanbieter bis zur Betriebssystemebene vordringen können, ist weiterhin eine Frage, die es wert ist, überdacht zu werden.
Letztendlich wird der Wert durch ein kommerzielles Vehikel erfasst. In den frühen Tagen kauften die Menschen Hardware als Vehikel, aber mit der Etablierung von Systemplattformen nahm die Bedeutung der Hardware relativ ab. In der Ära, in der „Plattform König ist“, teilte das Betriebssystem nicht nur den Wert, sondern förderte auch ein reichhaltiges Anwendungsökosystem. Dieses Phänomen wurde auch in der Ära des mobilen Internets bestätigt.
Wir können diese vier Elemente – Hardware, Betriebssystem, Anwendungen und Mensch-Computer-Interaktion – auf die aktuelle Entwicklung der KI abbilden. Auf der Angebotsseite sollten wir darüber nachdenken, warum Menschen Computer und KI-Modelle benötigen. Die unveränderte Nachfrage gilt der effizienten und bequemen Speicherung und Bearbeitung von Informationen. Jede Generation von Rechengeräten strebt nach natürlicherer und einfacherer Mensch-Computer-Interaktion, was ein ewiges Thema ist.
Schließlich sind auch die Verbreitung und das Teilen von Informationen wichtige Faktoren, die die technologische Entwicklung vorantreiben. Von den frühen E-Mails bis zu späteren Browsern hat die Entwicklung der Verbreitungsmethoden die tief verwurzelten Bedürfnisse der Menschen nach Digitalisierung erfüllt. Heute glauben wir allgemein, dass wir uns in einer Welle der Intelligenzsteigerung befinden, ähnlich wie bei der früheren Informationsrevolution, und wir können historische Muster nutzen, um Analogien zu ziehen und über zukünftige Richtungen nachzudenken.
- Technologische Basisschicht (Schlüssel zu Speicherung/Verarbeitung): Die Entwicklung von Kernhardwaretechnologien wie Prozessoren (Rechenleistung) und Speicher (Speichermedien).
- Plattformschicht: Die grundlegende Plattform des PCs, die Schnittstellen zur Hardware und eine Laufzeitumgebung für Anwendungen der oberen Schicht bereitstellt.
- Anwendungsschicht: Anwendungssoftware ist der Hauptgrund für Nutzer, PCs zu kaufen, und ein wichtiger Faktor, um Nutzer für eine bestimmte Plattform zu gewinnen.
- Transaktionsmittel: Hardwareprodukte sind die physischen Geräte, die Endnutzer kaufen, und stehen den Nutzern zur Auswahl und zum Kauf zur Verfügung.
Nachfrage – Digitalisierung:
- Speicherung: Ein praktisches Medium zur dauerhaften Speicherung von Informationen.
- Produktion: Der ständige Bedarf an Effizienz bei der Verarbeitung von Text, Daten, Bildern und Informationen in Produktivitätsszenarien.
- Verbreitung: Die Effizienz der Zusammenarbeit.
Wichtige Ereignisse und Trends nach 1990
| Jahr | Veranstaltung | Beschreibung |
|---|---|---|
| 1993 | Intel Pentium Prozessor veröffentlicht | Deutlich verbesserte CPU-Leistung und Effizienz |
| 1998 | Windows 98 und USB 1.1 Standard | Externe Geräte wurden Plug-and-Play-fähig gemacht |
| 2000 | Intel Pentium 4 | Hochleistungs-Desktop-Großrechner |
| 2003 | Explosion der Internetanwendungen | MySpace und Facebook, Amazon und eBay |
| 2005 | Laptop-Verkäufe übersteigen erstmals Desktop-Computer | Intel Centrino Plattform, integriert mit stromsparenden Prozessoren |
| 2007 | Der Aufstieg der Netbooks | Netbooks basierend auf Intel Atom Prozessoren erscheinen |
| 2011 | Ultraleichtcomputer | Ultrabook-Konzept, Laptop vs. Tablet |
| 2018 | Smartphone | Ersetzte andere Geräte und wurde zum Hauptgerät für mobiles Computing |
Die obige Tabelle zeigt deutlich einige sehr interessante Informationen! In den 1990er Jahren begrüßten wir die Veröffentlichung des Intel Pentium Prozessors, die Explosion der Internetanwendungen, die Geburt von Windows 98 sowie das Aufkommen von USB 1.1, Netbooks und Ultrabooks. Diese Reihe technologischer Innovationen skizziert den unveränderten Trend in der Entwicklung von Computern – das Internet ist wirklich in jedem Haushalt angekommen.
In diesem Zeitraum wurden CPUs weiter leichter, und mit dem Aufkommen von USB 1.1 wurde die Erweiterung von Peripheriegeräten bequemer, wodurch es einfach wurde, Geräte wie Mäuse anzuschließen. Der Aufstieg des Internets führte dazu, dass eine große Anzahl von Verbrauchern begann, persönliche Computergeräte zu nutzen. Es ist bemerkenswert, dass die Entwicklung des PCs einen klaren Trend zeigt: Leichtbau und Portabilität. Ein frühes Mikrokosmos des Mobiltelefons war der PDA.

Desktop-Computer – 2000

Notebook – 2005

Ultrabook – 2012
Die obigen Bilder sind AI-generierte Simulationen
Die PDA-Revolution der 1990er Jahre bietet eine interessante Perspektive. Da die Zeit begrenzt ist, werden wir hier nicht näher darauf eingehen. Eine Rückschau auf diesen Verlauf kann jedoch einige wichtige Analogien für den zukünftigen Entwicklungsweg von AI-PCs oder AI-NAS bieten.
Ich habe dies mit Kollegen bei Lenovo besprochen. Ihre frühe Marktdurchdringung betraf bereits Browser. Im Jahr 2000 startete Lenovo ein Programm, das den Zugang zum Einwähl-Internet erleichterte, die Netzwerkeinrichtung und Verbindung vereinfachte und so mehr Nutzern den Internetzugang ermöglichte. Dies half ihnen, den Markt schnell zu erobern. Dann kam die Ära der Markencomputer.
Eine Konstante in der Entwicklung von PCs ist die Verschiebung hin zu Portabilität und Dünnheit, die es Einzelpersonen ermöglicht, jederzeit und überall auf die digitale Welt zuzugreifen. Ein weiterer Trend ist die Verschiebung von früherer schwerer Produktion hin zu Multi-Szenario-Durchdringung. In welchen vertikalen Branchen wird sich AI zunächst konzentrieren? Wann wird sie weit verbreitet angenommen? Dies steht in engem Zusammenhang mit der zugrundeliegenden Rechenleistung, der Geräteform und der Reife des Betriebssystems – all dies ist miteinander verknüpft. Wir sehen, dass die zweite Hälfte der PC-Ära diese Multi-Szenario-Durchdringung verkörpert.
Heute treiben neue Variablen wie GPUs, TPUs und die integrierte NPU von RISC-V die Systementwicklung voran, und diese Systemänderungen werden die Anwendungsschicht durchdringen. Wenn die Zeit reif ist, werden viele interessante AI-native Anwendungen entstehen, die den lokalen Copilot noch leistungsfähiger machen. Es gibt jedoch viele Schlüsselelemente in der Industriekette, die eine tiefgehende Betrachtung und Beobachtung der Veränderungen bei den Schlüsselakteuren erfordern.
Veränderliche Faktoren, unveränderte Trends
- 1. Portabilität: Von schwer zu tragbar, geringerer Stromverbrauch und leichtere Geräte – die Einstiegskosten in die digitale Welt erheblich senkend.
- 2. Multi-Szenario: Gaming, Zeichnen, Programmieren und zugehörige Peripheriegeräte – die Grenzen digitaler Anwendungen erheblich erweiternd.
Was ist der Schlüssel zur Etablierung einer neuen Kategorie? Spezialisierte Geräte vs. universelle Rechengeräte
In diesem Prozess erkannte ich eine interessante Frage: Wie vergleichen sich heutige multifunktionale AI-Hardware mit der PC-Entwicklung der Vergangenheit? Welche Geräteinnovationen werden vom PC verschlungen, und welche nicht? Der PC war damals so dominant, wie heute Smartphones, Laptops und Cloud-Computing. In welchen Szenarien kam es also zu einer Divergenz zwischen spezialisierten und universellen Geräten, die letztlich nicht durch ein einziges, einheitliches Gerät ersetzt wurden?
Ich habe festgestellt, dass die 1983 von Nintendo eingeführte Spielkonsole tatsächlich denselben Chip wie der Apple I und II verwendete, aber zu einem spezialisierten Gerät wurde. Bis heute folgt der Kauf einer PS5 oder Xbox derselben Logik. Daher kann, wenn ein vertikales Szenario ausreichende Tiefe in Rechenbedarf, Systemanforderungen und Anwendungsszenarien aufweist, eine eigenständige Kategorie spezialisierter Geräte entstehen. Der PDA von 1999 ist ein weiteres Beispiel. Er nutzte relativ veraltete, stromsparende Geräte, um den Bedarf an einem persönlichen digitalen Assistenten zu decken. Obwohl der PDA damals noch kein Telefon war, sondern nur ein kostengünstiges Werkzeug für Terminplanung und Kontaktverwaltung, war er viel günstiger als ein PC und besetzte ein kleines Ökosystem tragbarer Geräte, das als Vorläufer des Mobiltelefons angesehen werden kann. Er wurde jedoch nicht vollständig durch spätere Laptops ersetzt; stattdessen überholte die Entwicklung der Mobiltelefone ihn.
Zwischen 1980 und 2000 entstand in der Computerindustrie ein einziges, einheitliches Rechengerät? Das Schlüsselwort lautet „Szenentiefe“.

NES – 1983
MOS Technology 6502

PDA – 1999
Motorola DragonBall 16 MHz
Die Grenze zwischen spezialisierten und universellen Geräten regt uns zum Nachdenken an: Welche der heutigen AI-Smart-Hardware werden von AI-Handys verschlungen, und welche werden sich eigenständig in neue Kategorien wie AI-Spielzeug entwickeln? In Bezug auf Szenentiefe und Investitionen in Assets können wir Spielkonsolen und PDAs als Analogien für tiefgehende Überlegungen verwenden.
Nebenbei bemerkt, die frühen 8-Bit-Prozessoren hatten eine Rechenleistung, die mit heutigen ARM-Prozessoren nicht mithalten konnte; sie waren vergleichbar mit dem Display-Controller in Ihrem Heimkühlschrank oder Ihrer Mikrowelle. Ein Computer aus dem Jahr 1980 befand sich im Wesentlichen auf dem Rechenleistungsniveau Ihres Heimkühlschranks. Der Punkt ist: Rückblickend war er nicht so leistungsfähig, wie man vielleicht denkt, legte aber den Grundstein für die gesamte PC-Industrie und die Entwicklung des Internets.
| Vergleichsdimension | PDA | PC im Jahr 1999 |
|---|---|---|
| Rechenleistung | Leistungsschwacher Prozessor (z. B. Motorola DragonBall 16 MHz), 2-16 MB RAM, begrenzter Speicherplatz; schwache Grafik- und Multimedia-Verarbeitung. | Leistungsstarker Prozessor (z. B. Intel Pentium III 500 MHz); 64-256 MB RAM, 10-20 GB Festplattenkapazität; leistungsfähige Grafik- und Multimedia-Verarbeitung. |
| Kosten | Preisspanne: 200-600 $; Hauptsächlich für Personal Information Management (PIM), hohes Preis-Leistungs-Verhältnis. |
Preisspanne: 1000-2000 $; Bietet umfassende Rechenfunktionen, breites Anwendungsspektrum, hohes Preis-Leistungs-Verhältnis. |
| Stromverbrauch | Energiesparendes Design, batteriebetrieben; Lange Akkulaufzeit, Stromverbrauch von einigen hundert Milliwatt bis zu wenigen Watt. |
Hoher Stromverbrauch, typischerweise 100-300 Watt; Benötigt kontinuierliche Stromversorgung, schlechte Tragbarkeit. |
| Anwendungsszenarien | Terminverwaltung, Kontaktverwaltung, Aufgabenlisten; Einfache Textverarbeitung, Notizen, E-Mail; betont Tragbarkeit und Schnelligkeit. |
Büroarbeit (Textverarbeitung, Tabellenkalkulation); Unterhaltung (Spiele, Musik, Filme); Internetsurfen und Kommunikation, Softwareentwicklung, Grafikdesign usw. |
| Portabilität | Kleine Größe, geringes Gewicht; einfach zu tragen und jederzeit, überall zu verwenden. | Große Größe, hohes Gewicht; für den Einsatz an einem festen Standort, nicht leicht zu tragen. |
Heutiger AI-PC, Anwendungen und neue Chancen
Zurück in die Gegenwart: Obwohl sich die Elemente der Industriekette verändert haben, bleibt die Nachfrage der Menschen nach Datenspeicherung, Produktion und Verbreitung unverändert. Auf abstrakter Ebene verschieben sich die Bedürfnisse der Menschen von GUI-Operationen hin zu dem Bedarf, dass ein Konkurrent oder ein intelligenter Agent automatisch Code oder Aufgaben erledigt. Was konstant bleibt, ist das Bedürfnis, Informationen zu erfassen und zu speichern. Mit der Einführung von Copilot können Kreative Kontext eingeben und die Maschine hilft ihnen, kreative Skripte zu erstellen oder zu verstehen, was ihre Kollegen tun.
Zum Beispiel kann ein Unternehmen einen Agenten einsetzen, der alle relevanten Brancheninnovationen in Echtzeit verfolgt und automatisch wöchentliche Berichte erstellt. Diese Methoden zur Speicherung und Erfassung von Produktionsdaten werden immer intelligenter und klüger. Und das Trägermedium dafür wird definitiv anders sein als ein traditioneller PC; es wird ein immer eingeschaltetes, Echtzeit-Rechengerät sein. Früher brauchten Menschen eine Maus und eine GUI, um produktiv zu sein; aber wenn Intelligenz direkt in das Rechengerät eingebettet ist, kann es eigenständig handeln. Das bedeutet, dass die Mensch-Computer-Interaktion nicht mehr auf Maus und Bildschirm angewiesen ist. Man kann ihm eine Aufgabe geben, und es kann sie direkt erledigen.
Und der Prozess, all dies zu erreichen, zeigt ein Muster, das im Mikrokosmos der letzten 40 Jahre zu erkennen ist. Daher haben diese zugrundeliegenden Szenenanforderungen Konsistenz! Die neue Produktivität, die durch GPT angetrieben wird, wird weiterhin von Produktivitätsszenarien in den Anfangsphasen dominiert, genau wie Lotus 1-2-3 in der DOS-Ära! Wir können auf diesem Fundament aufbauen, neue Produktionsvariablen hinzufügen und mögliche frühe Anwendungsszenarien finden. Kombiniert mit der zuvor erwähnten Spieleindustrie, der Bildverarbeitungsindustrie und Methoden zur Produktion, Erfassung und Verbreitung von Daten können wir theoretisch alle Möglichkeiten erkunden.
Speicherung: Maschine erwirbt Informationen, bietet personalisierte Empfehlungen.
Produktion: Modelle beteiligen sich an Entscheidungsprozessen und unterstützen den Produktionsprozess.
Verbreitung: Maschine übernimmt automatisch Verteilung und Verbreitung.
Neue Produktionsfaktoren
Jetzt können wir vier neue Produktionsfaktoren erkennen, die sich abzeichnen: die Entwicklung von GPUs und TPUs, neue Betriebssystemmodelle, Datenprivatisierung und die Menge an einzigartigen Benutzerdaten. Wenn diese Faktoren kombiniert werden, könnten wir die Geburt eines brandneuen „Compute-and-Storage-integrierten“ Rechengeräts erleben. Seine Position unterscheidet sich von der von Mobiltelefonen, Laptops und sogar der Public Cloud. Ich werde versuchen, seine Eigenschaften klar in einer Tabelle aufzulisten.
Private Daten |
Große Modelle |
GPU/TPU Rechenleistung |
Anwendungen |
|
|
|
|
Autor: Brian Kerrigan |
- Private Daten: Hochwertige proprietäre Datenressourcen innerhalb einer Organisation oder privat erworbene Daten durch Maschinen sind wichtige Vermögenswerte für das Training und die Optimierung von KI-Modellen.
- Große Modellfähigkeit: Die Fähigkeit zu verstehen, zu generieren und zu schlussfolgern, anpassbar an verschiedene Aufgaben und Szenarien.
- GPU- oder ASIC-Rechenleistung: Spezialisierte Hochleistungs-Hardware für Inferenz.
- KI-Anwendungen: Neue Anwendungen basierend auf LLMs, die in verschiedene Szenarien integriert sind.
Szenarien und Träger – Eine Tabelle
| Vergleich | Mobiltelefon | Private Cloud | Öffentliche Cloud |
|---|---|---|---|
| KI-Anwendung | Leichtgewichtig, Copilot | Private Inferenzfähigkeit, Agent | OpenAI, Agent |
| Große Modellfähigkeit | 3B | 7B – 100B | 405B |
| Rechenleistung | Mobilchip, Niedriger Stromverbrauch 6W 20 TOPS |
GPU / ASIC, Mittel-hohe Leistung 200W 200 TOPS |
Hochleistungs-Cluster, Elastische Skalierung |
| Betriebssystem | Android, iOS Laufzeitausführung Voller Datenzugriff |
Private Cloud OS Echtzeit-Aufgabenausführung Voller Datenzugriff |
Cloud-Plattform-spezifisches System Echtzeit-Aufgabenausführung Teilweise Autorisierung |
| Datenspeicherung | 2TB | Skalierbare Kapazität, Hunderte von TBs | Skalierbare Kapazität |
| Batterielaufzeit | Batteriepack 12 Stunden |
Eingesteckt ♾️ |
Eingesteckt ♾️ |
Aufgrund der Batterielaufzeitbeschränkungen stellen wir fest, dass das Computing immer leichter wird, was zu den heutigen Mobiltelefonen und Laptops geführt hat. Daher war die technologische Entwicklung immer auf Portabilität und Zusammenarbeit ausgerichtet, was langfristige Bedürfnisse der Menschen sind. Genau wie bei der Entwicklung des E-Commerce streben die Menschen nach höherwertigen Marken und leichteren Erlebnissen und wollen tragbarere Batterien und Telefone. Allerdings sind Rechenleistung und Batterielaufzeit durch Energie- und Stromverbrauchsgrenzen eingeschränkt, was das Intelligenzniveau der Modelle begrenzt, die auf Geräten laufen können, derzeit typischerweise auf dem 3B-Parameter-Niveau.
Das bedeutet, dass wenn Windows oder das nächste Android-System bereit sind, sie wahrscheinlich auf 3B-Modellen und Copilot basieren werden, die eine neue Generation von KI-Anwendungen inspirieren, wie KI-gesteuerte Browser, E-Mail-Antwort-Tools usw. Der Raum für diese Anwendungen ist begrenzt, aber sie werden dennoch sehr interessant sein, da sie hinter den Kulissen nur 3B-Modelle ausführen können. Dies ist eine Phase, die Mobiltelefone und Laptops unvermeidlich durchlaufen werden, denn aus Sicht des Siliziumprozesses wird sich die KI-Rechenleistung pro Watt nicht schnell dramatisch ändern.
Andererseits gibt es reines Cloud-Computing. Aber das Problem mit der Cloud ist: Sind Sie bereit, Ihre Daten von Plattformen wie Notion, Slack und Lark einem Cloud-Anbieter zu übergeben? Oder sind Sie bereit, einem einzigen Cloud-Dienstleister vollen Zugriff auf Ihre Taobao-, WeChat- und Finanzkonten zu gewähren? Das bringt offensichtlich enorme psychologische Entscheidungskosten mit sich. Daher wird die Cloud auf der höchsten Ebene existieren und die intelligentesten Modellfähigkeiten über API-Aufrufe bereitstellen, die große Unternehmen durchdringen und abdecken.
Aber in der Mitte hat sich eine Gelegenheit ergeben, ein neues Betriebssystem zu entwickeln. Dieses Betriebssystem wird als Träger für einen intelligenten Agenten fungieren, der auf einem Gerät läuft, das 24 Stunden am Tag eingeschaltet ist. Sie können ihm Aufgaben von Ihrem Telefon oder Laptop senden, und es wird diese automatisch im Hintergrund ausführen. Es verfügt über eine enorme Datenspeicherkapazität, und da es keine Einschränkungen bei der Rechenleistung gibt, kann es mit einer GPU im Bereich von hundert Watt ausgestattet werden, die etwa 200 TOPS KI-Rechenleistung bietet. Die Weiterentwicklung von TPUs und NPUs wird die Kosten für Rechenleistung weiter senken, ähnlich wie die Entwicklung des frühen 8088-Chips.
Auf dieser Basis kann ein Echtzeitmodell mit ausreichender Intelligenz aufgebaut werden, das allen dient. Übertragen auf die Gegenwart sind dies die 7B bis 100B großen Modelle, die derzeit veröffentlicht werden und nach Quantisierung vollständig auf einer 200 TOPS Rechenarchitektur laufen können. Wenn es geeignete Betriebssystemunterstützung gibt, wird ein reichhaltiges Ökosystem intelligenter Agenten-Anwendungen entstehen. Diese systemnahen Modelle sind fein abgestimmt, was wir oft als Edge-Modelle bezeichnen. Obwohl die Industrie viele Elemente umfasst, hat dieses neue Gerät eine klare Positionierung. Genau wie bei dem Laptop, den Sie kaufen, können Sie sich in verschiedene Konten einloggen, ohne sich zu sehr um Datensicherheitsprobleme sorgen zu müssen, denn es ist Ihr persönliches Computergerät. Es ist intelligent genug, um Sie 24 Stunden am Tag zu bedienen.
Kreative, Ingenieure und Wissensarbeiter
![]() Kreative |
![]() Freiberufler |
![]() Programmierer |
Abgesehen von Frontend-Innovationen wie Brillen und Kopfhörern ist es sehr wahrscheinlich, dass auf der Backend-Seite ein persönliches Computergerät entsteht, das vom Produktivitäts- zum Konsumgebrauch übergeht. Dies ist ein Gerät, das sich von reinem Computing zu einer Compute-und-Storage-integrierten Lösung wandelt. Heute werden Datenmobilität und Zusammenarbeit verbessert, während die Nachfrage nach Rechenleistung ebenfalls steigt. Ein Compute-und-Storage-integriertes Gerät wird zu einem notwendigen Träger für einen persönlichen intelligenten Agenten.
Anfangs könnten solche Geräte sich auf Gruppen wie Kreative, Ingenieure und Wissensarbeiter konzentrieren, um in den Markt einzutreten. Sie verfügen typischerweise über eine große Menge an reichhaltigen Mediendaten und Asset-Management-Bedürfnissen und benötigen Produktivitätstools, um ihre Schmerzpunkte bei Speicherung und Zusammenarbeit zu adressieren. Dies ähnelt dem Durchdringungspfad früher PCs, die Nutzer ansprechen, die bereit sind zu zahlen und eine starke Nachfrage nach Produktivität haben, um so in dieses neue Schlachtfeld einzutreten.
ZimaCube – Die private Cloud der Kreativen
Wir haben kürzlich weitere Interviews mit zahlreichen Kreativen und Content-Profis geführt und dabei ein breiteres Spektrum an Anwendungsszenarien entdeckt. Tatsächlich hat diese Kategorie eine sehr lange Pipeline. Der Ansatz von ZimaCube ähnelt eher Apples vertikaler Integration, und wir müssen überdenken, wie wir in verschiedenen Phasen vorgehen. Derzeit dient NAS (Network Attached Storage) als Träger für KI. Es durchläuft einen eigenen Iterationsprozess. Innerhalb dieses Prozesses erreichen wir die Kommerzialisierung durch vertikale Integration der privaten Cloud-Lösungen der Kreativen.
![]() |
![]() |
Hardware ist nicht die Barriere, sondern der Ausgangspunkt; sie benötigt eine gewisse Einzigartigkeit. |
System und Anwendungen dienen dem Szenario. |
Hardware ist der Ausgangspunkt; es beginnt mit Hardware, aber der Wert des Szenarios liegt in den Anwendungen. Ein offenes Anwendungsökosystem kann uns helfen, verschiedene aufkommende Anwendungen wie Lotus 1-2-3 früher zu integrieren. Wir müssen nicht eilig viele Ressourcen in die Entwicklung von Anwendungen investieren; stattdessen sollten wir eine Plattform aufbauen und diese durch gemeinschaftsbasierte Operationen fördern.
System- und Drittanbieteranwendungen

Bleiben Sie offen, integrieren Sie Mainstream-Anwendungen aus der LocalLLM-Community und bauen Sie einen App Store mit Dokumentation und einzigartigen Anwendungsstandards auf.
Die Notwendigkeit, Systeme und Gemeinschaften im globalen Geschäftskontext zu kombinieren
Hybrid-Hardware- und Softwareprodukte sind jedoch tatsächlich schwer zu schaffen. Im heutigen China benötigen viele innovative Unternehmen doppelte Fähigkeiten. In Bezug auf organisatorische Fähigkeiten müssen sie einerseits einem „Wasserfall“-Ansatz für Hardwaremanagement und Produktionsprozesse folgen, um Hardwarekosten und -risiken zu kontrollieren; andererseits müssen sie eine agile, iterative Logik aufbauen, um Softwaresysteme wöchentlich oder monatlich zu aktualisieren.
Gemeinschaften können ein hervorragendes Mittel sein, um globale Nutzerbedürfnisse und Feedback zurück in unsere Softwaresysteme zu speisen. Hardware selbst benötigt möglicherweise keine häufigen Updates. Wenn Sie eine Powerbank verkaufen, können Amazons Bewertungen und Wasserfallmanagement die Produktdefinition und einen einjährigen Verkaufszyklus abschließen. Aber heute gibt es nur wenige Nischen für kreative Unternehmen, die sich ausschließlich auf Hardwarelieferungen verlassen. Die meisten Kategorien, die auf Skaleneffekten beruhen, werden von Giganten dominiert, und es gibt keine neuen Traffic-Strukturen, die den Markt schnell erweitern können.
Eine universelle Herausforderung: Ein Aufruf an die nächste Generation von Plattformbauern
Die Geschichte zeigt uns, dass jede Ära des Rechnens letztlich von einer oder wenigen dominanten Plattformen geprägt wird. Heute ist der Aufbau dieser neuen Plattform eine gemeinsame Chance und Herausforderung für alle Innovatoren weltweit. Dies erfordert eine beispiellose und umfassende Fähigkeit, die Grenzen überschreitet:
Tiefe Integration von Hardware und Software: Dies erfordert die perfekte Verschmelzung der „Wasserfall“-Strenge der Hardwareentwicklung mit der „agilen“ Iteration der Software. Erfolgreiche Innovation dreht sich nicht mehr nur um Hardware oder Software, sondern um ein nahtlos integriertes „Hybridprodukt“.
Gemeinsamer Aufbau von Ökosystemen und Gemeinschaften: So wie der Homebrew Computer Club die PC-Revolution auslöste, sind heutige Open-Source-Gemeinschaften (wie LocalLLM) die Wiegen der nächsten Generation von „Killer-Apps“. Ein geschlossenes System mag für einen Moment gewinnen, aber nur ein offenes Ökosystem kann die Zukunft gewinnen.
Daher besteht die wichtigste Lektion aus den 1980er Jahren nicht in der Geografie, sondern in der Vision. Die Sieger jener Ära gewannen nicht, weil sie im Silicon Valley waren, sondern weil sie Chips, Systeme und Anwendungen erfolgreich in eine Plattform integrierten, die Menschen befähigte und ein neues Zeitalter einläutete.
Heute ist die Bühne bereitet. Für Unternehmer und Investoren weltweit ist die eigentliche Frage nicht „wo“ man innovieren soll, sondern „wie“ man die neuen Produktionsfaktoren – private Daten, KI-Modelle und zugängliche Rechenleistung – effektiv in eine neue, menschenzentrierte Plattform organisiert, die Kreativität freisetzt. Dies ist keine Solovorstellung eines einzelnen Landes oder einer Region, sondern ein globales Unterfangen, das uns alle betrifft und darauf abzielt, die Zukunft des Rechnens neu zu gestalten.






















