PC-Geschichte & KI: Die Zukunft der Edge-Hardware vorhersagen

Eva Wong ist die Technische Redakteurin und residente Tüftlerin bei ZimaSpace. Eine lebenslange Geek mit einer Leidenschaft für Homelabs und Open-Source-Software, sie spezialisiert sich darauf, komplexe technische Konzepte in zugängliche, praktische Anleitungenzu übersetzen. Eva ist der Meinung, dass Self-Hosting Spaß machen und nicht einschüchternd sein sollte. Durch ihre Tutorials befähigt sie die Community, Hardware-Setups zu entmystifizieren, vom Bau ihres ersten NAS bis hin zur Beherrschung von Docker-Containern.

Dieser Inhalt stammt aus einer Sharing-Session von IceWhale Technology innerhalb des FreeS Fund. Ziel ist es, die wichtigsten Transformationen, Entwicklungstrends, kritischen Ereignisse und die zugrunde liegenden konstanten Verbraucherbedürfnisse der PC-Industrie im Silicon Valley der 1980er Jahre zu beleuchten. Der Artikel ist recht lang und behandelt den Stand der Chips in den 1980er Jahren, den Beginn und die Verbreitung von PCs, die Veränderungen in DOS- und Windows 1.0-Systemen von 1980 bis 1990, frühe Killer-Apps für PCs und Cold-Start-Szenarien. Wir hoffen, Sie lesen geduldig und lassen sich inspirieren für Ihre Investitionsentscheidungen und Produktinnovationen im Bereich KI-Hardware und -Anwendungen.

Ein Zitat von Ray Dalio von Bridgewater Associates entliehen:

Die Idee, dass die Menschheitsgeschichte sich wiederholende Muster aufweist, ist einfach Realität. Vielleicht ist „Zyklus“ nicht das richtige Wort dafür, vielleicht sollte es ein Muster sein, aber ich denke, beide beschreiben den Prozess.

—— Ray Dalio

Der Aufstieg des PCs, der Prozess der Informatisierung und die vier Schlüsselelemente

Computer History Museum, Silicon Valley der 1980er Jahre

Apple II – 1977

Apple II – 1977

MOS Technology 6502, 8-Bit, Farbe, 1200 $+, 8 Erweiterungssteckplätze

Autor: Rama
Lizenz: CC BY 2.0

IBM PC - 1981

IBM PC – 1981

Intel 8088, 16 Bit, 16 MHz, 1500 $

Autor: Rama & Musée Bolo
Lizenz: CC BY-SA 2.0 fr

Commodore 64 - 1982

Commodore 64 – 1982

595 $ -> 299 $

Autor: Bill Bertram
Lizenz: Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 2.5

Heute, da OpenAI, Google und Microsoft die „Ära der Intelligenz“ basierend auf großen Modellen definieren, blicken wir zunächst zurück auf das frühe „Informationszeitalter“, das mit der Geburt des PCs im Jahr 1976 begann. In diesem Moment wurde der Apple I geboren. Dieser Computer wurde von Steve Jobs und Steve Wozniak in einer Geek-Community namens Homebrew Computer Club vorgestellt und kostete 600 $. Die Veröffentlichung des Apple I im Club war vergleichbar mit einem heutigen Online-Crowdfunding-Projekt auf Kickstarter. Er richtete sich nur an Technikbegeisterte, erforderte den manuellen Zusammenbau der Teile und wurde als Bausatz verkauft… die frühen Verkaufszahlen lagen bei etwas über 200 Einheiten. Doch dieses Produkt legte den Grundstein für Apple und half Jobs und seinem Team, ihre erste Gruppe von Stammkunden zu gewinnen.

Kurz darauf, im Jahr 1977, brachte Apple den Apple II heraus. Diese Generation war nicht nur optisch verfeinert und bot eine Farbanzeige, sondern verfügte auch über Erweiterungssteckplätze und ein integriertes Gehäuse, was es Technikbegeisterten erleichterte, das Gerät zu erweitern und selbst zu bauen. Die anderen Kern-Spezifikationen änderten sich jedoch kaum. Die Veröffentlichung des Apple II war ein Meilenstein; der Preis lag bei 1250 $, weit unter den damals teuren kommerziellen Computern.

Vier Jahre später entsandte IBM, angeblich unter Marktdruck, ein schlankes Team von 12 Personen, um ein Projekt mit dem Codenamen „Project Chess“ zu starten und seine Position als Branchenführer zu behaupten. Als führendes Unternehmen mussten sie natürlich ein starkes Zeichen setzen. Sie führten den IBM PC ein, basierend auf einem Intel-Prozessor, und setzten auf eine offene Hardware-Architektur. Dies öffnete die Tür für andere Hersteller, kompatible Geräte zu entwickeln, was wiederum die Entstehung des Wintel-Ökosystems förderte. IBMs offene Strategie führte schnell dazu, dass sein PC-Standard vom Markt akzeptiert wurde.

Der Commodore 64 im Jahr 1982 ist ein weiteres Unternehmen, das erwähnenswert ist, obwohl es nicht sehr weit kam. In seinen frühen Tagen erkannte es mehrere Schlüsselstrategien richtig. Es bot führende Grafik- und Audioleistung zu einem wettbewerbsfähigen Preis von 595 $, was gut ankam. Gleichzeitig priorisierte Commodore die Expansion in den europäischen Markt, wobei über die Hälfte des Umsatzes aus Europa stammte. Durch die Nutzung lokaler Vertriebsnetze und Werbung gewann es schnell an Popularität und legte eine solide Grundlage für seine Präsenz im globalen Heimcomputermarkt.

So wie es heute zahlreiche Unterkanäle auf Reddit für große Modelle wie ChatGPT, LocalLLM und Stable Diffusion gibt, entstanden in den frühen Tagen jeder Ära viele talentierte Personen und Ideen aus Online- und Offline-Communities. Das ist heute nicht so unbekannt, da viele Tech-Giganten früher in BBS-Foren unterwegs waren, als das Internet gerade aufkam, bevor sie sich in verschiedene Branchen zerstreuten. Heute hat die Community um große Modelle an führenden Universitäten ähnliche Eigenschaften.

Aber was noch interessanter ist, ist, dass solche Clubs dazu neigen, im Laufe eines Jahrzehnts allmählich zu verschwinden. Das Muster ist, dass wenn eine neue Kategorie entsteht, sie eine Gruppe von Enthusiasten anzieht, die in der Community sehr aktiv sind, verschiedene Ideen vorschlagen und sogar frühe Produktprototypen erstellen. Wenn große Unternehmen eingreifen und die Innovation sich auf die Kommerzialisierung verlagert, reifen die frühen, von der Community ausgehenden Ideen allmählich heran und gewinnen an Substanz. Diese Gemeinschaften haben jedoch oft ein „Schicksal“: Sie sind während Phasen aktiver Innovation äußerst florierend, aber ihre Popularität schwindet, wenn die Branche reift und Giganten entstehen. Der Homebrew Computer Club sowie die Entwicklung der heutigen Modellindustrie, des 3D-Drucks und der Quadrocopter folgen alle diesem „Boom-und-Bust“-Muster.

Ic-photo-Intel--P8088--(8088-CPU)-v2.png

Autor: ZyMOS

Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0

Der Intel 8088 ist ein klassischer Prozessor, der 1979 veröffentlicht wurde und im IBM PC verwendet wurde.

  • 8-Bit-Datenbus, 16-Bit interne Verarbeitung: Obwohl er intern 16-Bit war, nutzte er einen 8-Bit externen Datenbus, was die Hardwarekosten senkte.
  • 4,77 MHz Taktfrequenz: Moderate Verarbeitungsgeschwindigkeit, ausreichend für Textverarbeitung und einfache Spiele der damaligen Zeit.
  • Unterstützt 1 MB Speicher: Kann maximal 1 MB Speicher adressieren.
  • Kompatibel mit dem x86-Befehlssatz: Kompatibel mit späteren x86-Prozessoren, legte die Grundlage für die PC-Standardisierung.
  • 40-Pin-Gehäuse, geringer Stromverbrauch: Kleine Größe und geringer Stromverbrauch, geeignet für die Bedürfnisse von Desktop-Computern jener Zeit.

Zweitens betrachten wir die Chips jener Zeit, die die Grundlage für die PC-Kategorie bildeten. Die Definition eines PCs ist untrennbar mit dem kontinuierlichen Sinken der Chipkosten und „gerade ausreichender“ Rechenleistung verbunden. Die Eignung für den Gebrauch und die Erschwinglichkeit ermöglichten den PCs den Eintritt in den Massenmarkt. Der Intel 8088 ist ein typisches Beispiel. Der 8088 passte die Busbreite im Vergleich zu seinem Vorgänger, dem 8086, an, was zu geringeren Kosten führte und ihm erlaubte, der Kernchip des IBM PC zu werden.

Damals waren IBMs kommerzielle und militärische Rechengeräte sehr groß und leistungsstark, aber für den Privatmarkt völlig „overkill“. Der 8088 war dagegen ein Schritt zurück, bot ausgewogene Rechenleistung zu geringeren Kosten, ähnlich wie heutige NAS-Geräte (Network Attached Storage), die kommerzielle Server auf eine Größe und Rechenleistung vereinfachen, die für den Heimgebrauch geeignet ist, sodass Einzelpersonen ihre eigenen kleinen Rechenlösungen haben können.

Wenn NVIDIAs H200 heute der kommerzielle Marktführer ist, wer entwickelt dann die ASIC-Chips, die Modelle in verschiedene Computerterminals wie KI-PCs oder KI-NAS bringen werden?

Die Entwicklung der Systeme – Jede Generation preist ihre „benutzerfreundliche Oberfläche“ an

So wie heute jedes Unternehmen behauptet, ein „intelligentes System“ zu haben

Apple II Dos

Autor: Vadim Rumyantsev
Gemeinfrei

Apple II DOS – 1978

Technikbegeisterte, Kleinunternehmen

Kommandozeilen-Schnittstelle

Xerox Star OS – 1981

Unternehmensanwender

Erster mit GUI; ein Luxusartikel zum Preis von 16.595 $…

Apple Macintosh Classic

Autor: Eric Chan aus Hongkong
Creative Commons Attribution 2.0

Macintosh – 1984

Massenkonsumenten, Kreativprofis, Bildung

Weitverbreitete Einführung von GUI

DOS – Disk Operating System

Drittens werfen wir einen Blick auf die frühen Betriebssysteme. So wie heute Modelle „feinjustiert“ werden, war es damals im Grunde etwas, womit nur Ingenieure herumexperimentieren konnten. Um 1978-79 arbeiteten nur etwa zehntausend Ingenieure im Silicon Valley mit DOS-Systemen, die vollständig auf der Kommandozeile basierten und keine grafische Benutzeroberfläche hatten. In dieser Phase waren Betriebssysteme noch weit davon entfernt, den Alltag von Unternehmen und der breiten Öffentlichkeit zu durchdringen, ähnlich wie KI-Modelle heute, die noch immer in den Händen einer Gruppe von Technikbegeisterten sind.

Erst 1981, mit der Einführung des ersten PCs von IBM, gewann das DOS-System allmählich mehr Aufmerksamkeit, war aber immer noch eine Befehlszeilenversion ohne GUI. Die damaligen Rechenszenarien ähnelten daher sehr der heutigen KI: Sie erforderten eine große Anzahl von Technikbegeisterten und Ingenieuren, die wiederholt anpassten und integrierten, um spezifische Anwendungen zu realisieren. Was PCs und Betriebssysteme wirklich auf Unternehmensebene brachte, war die grafische Benutzeroberfläche (GUI) des Xerox Star, die die erste echte Welle der Nutzererweiterung einläutete.

1984 erweiterte das von Apple eingeführte grafische Schnittstellensystem die Nutzerbasis auf kreative, pädagogische und andere professionelle Bereiche und öffnete langsam die Massenanwendung von Betriebssystemen. Während dieser Zeit koexistierten DOS- und GUI-Systeme lange, wobei Unternehmen zwei separate Systeme für unterschiedliche Bedürfnisse pflegten.

Das Anwendungsekosystem der frühen 1980er Jahre, was wir heute „Killer-Apps“ nennen

Lotus 1-2-3 – 1982

Lotus-123-3.0-MSDOS

Autor: Odacir Blanco
Public Domain
Unternehmensfinanzen, kleine und mittlere Unternehmen

WordPerfect – 1985

Wordperfect-5.1-dos

Lizenz: Public Domain
Recht und Wissenschaft

Viertens das Anwendungsekosystem, das sich allmählich parallel zu den System- und Hardwarefähigkeiten entwickelte! Hier sind einige repräsentative Anwendungen und ein Einblick in ihren Durchdringungspfad in der PC-Produktivitätsrevolution.

In diesen frühen UI-Systemen hatte der Markt noch nicht das Verbraucherniveau erreicht und bestand hauptsächlich aus Produktivitätsszenarien. Einige Anwendungen begannen hervorzustechen, wie Lotus 1-2-3, eine bekannte Finanzverwaltungssoftware und eine frühe Version von Excel. WordPerfect, veröffentlicht 1985, wurde hauptsächlich im juristischen und akademischen Bereich eingesetzt. Diese Bearbeitungen erfolgten jedoch nicht über eine ausgereifte grafische Oberfläche, sondern basierten auf der DOS-Befehlszeile. Wissensarbeiter mussten die entsprechenden Befehlszeilenoperationen erlernen, um Bearbeitungsaufgaben zu erledigen.

Im akademischen Forschungsbereich führten der Einsatz von PCs zur Dokumentendigitalisierung und Zusammenarbeit zu enormen Effizienzsteigerungen. Daher war bis 1988 die Durchdringungsrate von PCs in der Wissenschaft sehr hoch für Szenarien wie Dateitransfer, E-Mail-Kommunikation und Textbearbeitung. Erst 1989, mit der Verbesserung der CPU-Rechenleistung und der GUI-Verarbeitungskapazitäten, begann es jedoch, einen großen Einfluss auf Branchen wie Druck und Werbedesign zu haben. Das ist heute ähnlich; obwohl OpenAI ein Video-Weltmodell veröffentlicht hat, wurde es noch nicht schnell in praktischen Szenarien angewendet, da die Reifung von Rechenressourcen und GUI-Technologie Zeit benötigt.

Die obigen Bilder sind KI-generierte Simulationen

CorelDRAW – 1989

CorelDraw – 1989

Grafikdesigner, Druckindustrie

Quicken – 1984

Quicken – 1984

Privatanwender, kleine Unternehmen

Flight Simulator – 1985

Flight Simulator – 1985

Flugbegeisterte, Studierende

In den Anfangstagen einer neuen Computerplattform hat die Anwendungsinnovation, die tief in vertikale Szenarien eintaucht, weiterhin einen enormen Wert für die Branche. Wenn wir eine Analogie zur Gegenwart ziehen, glaube ich, dass im nächsten Jahr, wenn die TPU-Rechenleistung in PCs bereitsteht und Windows als standardisiertes Zwischenbetriebssystem leistungsstarke KI-Rechenleistung für Anwendungen der oberen Schicht bereitstellen kann, eine neue Welle von KI-bezogenen, Copilot-ähnlichen PC-Anwendungen entstehen wird, die direkt am Edge laufen.

In diesem Kontext vertiefte Quicken die Erfahrung in Geschäftsszenarien auf Basis von Lotus weiter. Es verbesserte die Interaktionsoberfläche und Konfigurierbarkeit des ursprünglichen DOS-Systems und entwickelte sich tiefgehend für die Bedürfnisse des Finanzmanagements und kleiner Unternehmen. Dies gab diesen frühen Anwendungen einen guten Überlebensraum.

Die Preise für diese Anwendungen waren jedoch ziemlich hoch. Zum Beispiel kostete Lotus 1-2-3 fast 500 US-Dollar, was 1985 eine sehr teure Lösung war. Dies zeigt, dass frühe Produktivitätsszenarien hauptsächlich von Verbrauchern mit hoher Kaufkraft angetrieben wurden.

Außerdem gab es einige Spiele und Simulatoren für Enthusiasten, wie den „Flight Simulator“ unter Windows, die vielfältigere und leichtere Produktmerkmale boten und neue Nutzer anzogen, die gerne erkundeten und experimentierten. Daher sehen wir, dass das frühe PC-Ökosystem durch eine Kombination aus leistungsstarken Produktivitätstools, der Durchdringung von kleinen und mittleren Unternehmen, industrieller und akademischer Forschung sowie einigen interessanten Ausreißer-Anwendungen aufgebaut wurde. Der Zeitrahmen für diesen Prozess war jedoch sehr lang, da sich die zugrundeliegenden DOS- und GUI-Technologien relativ langsam entwickelten.

Insbesondere spielten Anwendungsanbieter wie Lotus eine Schlüsselrolle. Sie waren keine Betriebssystemanbieter; letztere konzentrierten sich auf den Aufbau der Zuverlässigkeit, Ressourcenplanung und Skalierbarkeit des Systems. Im Zeitraum von 1982 bis 1990, also über 8 bis 9 Jahre, nutzte Lotus die Gelegenheit, eine Marktlücke zu füllen. Apple und Microsoft begannen erst in den 1990er Jahren, ihre vollständigen Office-Suiten zu veröffentlichen, was diesen systemnahen Anwendungen einen Marktvorteil von 7 bis 8 Jahren verschaffte. Sie nutzten die Popularität des IBM PC und des DOS-Systems, um schnell in den Unternehmensanwender-, Finanzbuchhaltungs- und andere Bereiche einzudringen. Diese Nutzer hatten einen hohen Bedarf an Datenverarbeitung, und die Kombination aus den neuen Computern und der Software von Lotus erreichte in diesen Szenarien eine vollständige Durchdringung.

Windows 1.0 und Ballmers „verrückte“ Verkaufsstrategie

Zurück im Jahr 1985 hatte Lotus bereits einen Marktanteil von über 50 %. Angesichts des hohen Preises von 495 $ ist es nicht schwer zu verstehen, warum Steve Ballmer bei der Bewerbung von Windows 1.0 betonte: „Wir bieten ein Schachspiel, eine Tabellenkalkulation und Bildverarbeitung für nur 99 $, nicht 500 oder 600 $.“ Zu dieser Zeit war die Preisgestaltung von Software ein sehr attraktives Verkaufsargument im Marketing. Beim Verkauf des Betriebssystems bot spezialisierte Grafiksoftware wie CorelDRAW, die später Photoshop ähnelte, den Nutzern professionelle Bildbearbeitungsfunktionen.

Lotus 1-2-3

Unternehmen: Lotus Development Corporation

Hintergrund: Lotus 1-2-3 wurde von der Lotus Development Corporation entwickelt, die 1982 von Mitch Kapor gegründet wurde. Lotus 1-2-3 war die erste Software für den IBM PC, die integrierte Tabellenkalkulations-, Grafik- und Datenbankverwaltungsfunktionen bot und wurde schnell zu einer der beliebtesten Anwendungssoftwares, besonders bei Geschäfts- und Unternehmenskunden.

Benutzerprofil: Die Hauptnutzer waren Unternehmensanwender, insbesondere Finanzanalysten, Buchhalter und Manager. Diese Nutzer verfügten typischerweise über ein gewisses technisches Wissen und waren sehr datenaffin.

Hauptanwendungsfälle: Wurde für Datenmanagement, komplexe Finanzmodellierung, Budgetierung, Berichtserstellung und verschiedene andere Formen der Datenanalyse verwendet. Die leistungsstarken Funktionen von Lotus 1-2-3 machten es zur ersten Wahl für Tabellenkalkulationen in Unternehmen.

1983: Lotus 1-2-3 wurde eingeführt und wurde schnell Marktführer, besonders bei IBM-PC-kompatiblen Systemen.

1985: Marktanteil überstieg 50 %, bei einem Preis von 495 $.

CorelDRAW

Unternehmen: Corel Corporation

Hintergrund: Ende der 1980er Jahre, mit der Verbreitung grafischer Benutzeroberflächen (GUIs) und Personal Computern (PCs), wuchsen die Märkte für Grafikdesign und Desktop-Publishing schnell. Traditionelle Designprozesse (manuelles Zeichnen und Satz) begannen sich digital zu wandeln.

Benutzerprofil: Hatten ein gewisses Verständnis für Computergrafikdesign, waren aber nicht unbedingt technische Experten.

  • Professionelle Designer und Illustratoren: Benötigten präzise Vektorzeichnungswerkzeuge, um Illustrationen, Logos und andere Designarbeiten zu erstellen.
  • Desktop-Publishing-(DTP)-Fachleute: Mussten Text und Grafiken kombinieren, um Bücher, Magazine, Werbematerialien usw. zu produzieren.
  • Kleine und mittlere Unternehmen und Freiberufler: Nutzen CorelDRAW, um Firmenlogos, Werbeanzeigen und Marketingmaterialien zu erstellen, ohne teure spezialisierte Design-Hardware und -Software.

1989: CorelDRAW 1.0 war die erste Software, die Vektorgrafikdesign und Desktop-Publishing-Funktionen kombinierte, und ihr Start leitete eine Revolution im Bereich Grafikdesign ein. Diese Version unterstützte Funktionen wie mehrere Seiten, Kurvenbearbeitung und Textverarbeitung.

Vom erworbenen MS-DOS 1.0 zu Windows + Office

Zeit Titel Details
1981 MS-DOS 1.0 Partnerschaft mit IBM bestätigt
1982 MS-DOS 1.25 Lizenziert an Drittanbieter-kompatible Marken
1983 MS-DOS 2.0
Microsoft Word
Erweiterte Systemfunktionalität
Unterstützung für Festplatten und Verzeichnisstrukturen
1985 Windows 1.0 Fügte eine grafische Oberfläche über Microsoft MS-DOS hinzu
1987 Windows 2.0 Bessere Grafikunterstützung und Leistung
Überlappende Fenster und Tastenkürzel
1988 MS-DOS 4.0 Führte die grafische Benutzeroberfläche DOS Shell ein
1989 Microsoft Office Bietet Büroautomatisierungsintegration für Windows

Microsofts Aufstieg lag vielleicht nicht an den Anfangsprodukten, sondern an seiner hervorragenden Geschäftsstrategie. Früh zeigte Microsoft ein scharfes Geschäftsgespür, indem es ein Drittanbieter-Betriebssystem namens 86-DOS erwarb [ja, sie kauften es…]. Dieser Schritt machte sie zu einem wichtigen Partner für IBM. Überraschenderweise expandierte Microsoft im zweiten Jahr schnell und kooperierte mit anderen Hardwareherstellern, ähnlich wie heute nach der Definition von Industriestandards durch Tesla zahlreiche Unternehmen folgten und so das gesamte ODM-Ökosystem und die Etablierung von AIPC-Standards vorantrieben.

Nachdem Microsoft den Standard definiert hatte, begannen die Hardwarehersteller zu handeln. Wenn wir heute auf den AI-PC-Markt und Edge-AI-Anwendungen blicken, sehen wir eine Vielzahl von Laptops mit 40 TOPS KI-Rechenleistung auf den Markt kommen, und Qualcomm unternimmt ähnliche Schritte. Das bringt neue Variablen mit sich: Einerseits wird die Hardware aufgerüstet, andererseits wird die Bedeutung des Betriebssystems in der Mittelschicht hervorgehoben. Das Betriebssystem muss die 40 TOPS Rechenressourcen effektiv zuweisen, um die Anforderungen vieler Anwendungen der oberen Schicht zu erfüllen. Microsoft investierte stark in die Entwicklung des Betriebssystems und hatte lange keine Zeit, mit Lotus oder WordPerfect zu konkurrieren.

Erst im dritten Jahr begann Microsoft, WordPerfect zu imitieren [das System übernimmt wichtige Anwendungen], und dies setzte sich bis 1989 fort. Über acht Jahre hinweg festigte Microsoft seine Drittanbieter-Lizenzierung für das System und begann 1985 mit dem eigenständigen Verkauf von Windows 1.0. Es ist bemerkenswert, dass Windows 1.0 erst volle vier Jahre nach dem GUI-System von Xerox veröffentlicht wurde, was den langen Entwicklungsprozess von Betriebssystemen verdeutlicht. Frühe Windows-Versionen wurden hauptsächlich mit Hardwaregeräten gebündelt verkauft, mit Verkaufszahlen von mehreren Zehntausend Einheiten in den ersten zwei bis drei Jahren und einer kumulierten Auslieferung von fünf bis sechs Millionen Einheiten innerhalb von acht Jahren.

Die Produktivitätsrevolution vs. jeder Haushalt

Damals war der Hauptmarkt für PCs nicht auf Nordamerika beschränkt; entwickelte Länder in Europa importierten diese Geräte ebenfalls per Schiff. Die Nutzerbasis konzentrierte sich hauptsächlich auf intensive Produktivitätsszenarien. Erst 1989, als Anwendungen wie Bildverarbeitung aufkamen, wurden neue Anwendungsfälle angetrieben. Selbst mit der Einführung von GUI-Systemen gelangten sie nicht sofort in den Massenkonsum. Der wirkliche Einzug in normale Haushalte erfolgte etwa 1994, mit dem Aufstieg des Netscape-Browsers und des Internets, als immer mehr Menschen, die Computer bei der Arbeit nutzten, begannen, Geräte für zu Hause zu kaufen.

Dieser technologische Entwicklungspfad, von einer Produktivitätsrevolution zu einer Konsumentenexplosion, ist in der PC-Ära deutlich sichtbar. Heute verbreiten sich Informationen schnell, und ob KI jedes Verbraucherszenario stärken kann, muss noch mit der Zeit überprüft werden. In den Anfangsphasen müssen wir möglicherweise mehr auf Veränderungen auf der Produktions- und Angebotsseite achten.

Ein weiterer Schlüsselfaktor ist die Entwicklung der Mensch-Computer-Interaktion. Die Einführung der Maus schuf eine neue Art der Mensch-Computer-Interaktion, die die Verbreitung von PCs stark beeinflusste. Ähnlich können wir die aktuelle Struktur betrachten, indem wir Microsofts Entwicklungspfad nachvollziehen. Wenn heute OpenAI die Möglichkeit eines KI-Betriebssystems in der Cloud validiert, dann werden Anwendungen der oberen Ebene am Rand ohne Unterstützung eines Betriebssystems Schwierigkeiten haben zu wachsen. Wenn Betriebssystem und Hardware entscheidende Durchbrüche erzielen, könnten nachgelagerte Anwendungen explosionsartig wachsen.

Heute interagieren wir über natürliche Sprache und Videostreams, und diese neuen Variablen werden auch die Anwendungsszenarien von KI beeinflussen. Kurz zusammengefasst: Der Grund, warum Microsoft von 1981 bis 1989 DOS und GUI parallel entwickelte, war die Notwendigkeit, mit einer Vielzahl von Hardwaregeräten kompatibel zu sein. Das erklärt auch, warum Steve Jobs das Windows-System einst als komplex und unästhetisch betrachtete. Aus geschäftlicher Sicht ging Microsoft jedoch stetige Schritte: Vom Erwerb des Codes und der Einführung einer GUI bis zur Veröffentlichung von Office acht Jahre nach Lotus festigten sie ihre Position im Ökosystem auf vielfältige Weise.

Ein Einblick in die aktuelle Windows-Architektur durch die Linse von Windows NT

Windows-NT-Architekturdiagramm mit übersetzten Komponenten

Windows-NT-Architekturdiagramm mit übersetzten Komponenten

  • User-Mode-Subsysteme: Anwendungs-Kompatibilität
  • Fenstermanager und GDI: Benutzeroberfläche und Fensterverwaltung
  • Strommanager: Verwaltet die Stromversorgung
  • PnP-Manager: Plug-and-Play-Geräteverwaltung
  • Prozessmanager: Verwalten Prozesse
  • VMM: Virtueller Speicher-Manager
  • IPC-Manager: Interprozesskommunikation, wie Nachrichtenübermittlung
  • Sicherheitsreferenzmonitor: Autorisierung und Sicherheit
  • E/A-Manager: Verwalten Ein-/Ausgabeanforderungen für Geräte
  • Objektmanager: Bietet einheitliche Kontrolle und Sicherheit für Objekte wie Dateien, Prozesse und Geräte
  • Mikrokernel: Kernfunktionen des Betriebssystems, Interprozesskommunikation, Thread-Management
  • Kernel-Modus-Treiber: Interagieren direkt mit der Hardware und stellen Hardware-Schnittstellen für das System bereit
  • HAL: Hardware-Abstraktionsschicht, überdeckt Unterschiede zwischen Hardware

Zusammenfassung der vier Elemente – Variablen und konstante Anforderungen erkennen

Chips, System, Anwendungen und Geräte

Speicher/Rechenleistung

Chip

Treiber

System

OS-Benutzeroberfläche

Grundlage

Anwendung

klassische Anwendung

Nutzerwert

Produkt

Endprodukt

Vehikel

In diesem Prozess sind mehrere Schlüsselelemente hervorzuheben. Das erste ist die Entwicklung von Speicher- und Recheneinheiten. Obwohl die Kosten für frühe Chips und Speicher sanken, fielen sie nicht signifikant, was mit dem Fortschritt des Mooreschen Gesetzes zusammenhängt. Heute wird die Bereitstellung von Edge Computing auch dadurch ermöglicht, dass die technologische Entwicklung einen bestimmten Wendepunkt erreicht hat.

Zweitens übernimmt das Betriebssystem als wichtige Middleware Schlüsselaufgaben wie Ressourcenmanagement und Geräteanpassung. Obwohl frühe Systeme nicht leistungsfähig waren, war ihre Bedeutung offensichtlich.

Drittens konnten frühe Killeranwendungen Geld verdienen, aber wenn sie nicht tief entwickelt wurden, konnten sie schließlich ersetzt werden [was heute oft als vertikale Szenarien bezeichnet wird, die Tiefe erfordern]. Ob Anwendungsanbieter bis zur Betriebssystemebene vordringen können, ist weiterhin eine Frage, die es zu bedenken gilt.

Letztendlich wird Wert durch ein kommerzielles Vehikel eingefangen. In den Anfangstagen kauften die Menschen Hardware als Vehikel, aber mit der Etablierung von Systemplattformen nahm die Bedeutung der Hardware relativ ab. In der Ära, in der „Plattform König ist“, teilte das Betriebssystem nicht nur den Wert, sondern förderte auch ein reichhaltiges Anwendungsökosystem. Dieses Phänomen wurde auch in der Ära des mobilen Internets bestätigt.

Wir können diese vier Elemente – Hardware, Betriebssystem, Anwendungen und Mensch-Computer-Interaktion – auf die aktuelle Entwicklung der KI übertragen. Auf der Angebotsseite sollten wir darüber nachdenken, warum Menschen Computer und KI-Modelle benötigen. Die unveränderte Nachfrage gilt der effizienten und bequemen Speicherung und Bearbeitung von Informationen. Jede Generation von Rechengeräten strebt nach einer natürlicheren und einfacheren Mensch-Computer-Interaktion, was ein ewiges Thema ist.

Schließlich sind auch die Verbreitung und das Teilen von Informationen wichtige Faktoren, die die technologische Entwicklung vorantreiben. Von frühen E-Mails bis zu späteren Browsern hat die Evolution der Verbreitungsmethoden die tief verwurzelten Bedürfnisse der Menschen nach Digitalisierung erfüllt. Heute glauben wir allgemein, dass wir uns in einer Welle der Intelligenzsteigerung befinden, ähnlich wie bei der früheren Informationsrevolution, und wir können historische Muster nutzen, um Analogien zu ziehen und über zukünftige Richtungen nachzudenken.

  • Technologische Basisschicht (Schlüssel zu Speicher/Computing): Die Entwicklung von Kernhardwaretechnologien wie Prozessoren (Rechenleistung) und Speicher (Speichermedien).
  • Plattformschicht: Die grundlegende Plattform des PCs, die Schnittstellen zur Hardware und eine Laufzeitumgebung für Anwendungen der oberen Schicht bereitstellt.
  • Anwendungsschicht: Anwendungssoftware ist der Hauptgrund für Nutzer, PCs zu kaufen, und ein wichtiger Faktor, um Nutzer für eine bestimmte Plattform zu gewinnen.
  • Transaktionsmittel: Hardwareprodukte sind die physischen Geräte, die Endnutzer kaufen, und stehen den Nutzern zur Auswahl und zum Kauf zur Verfügung.

Nachfrage – Digitalisierung:

  • Aufbewahrung: Ein praktisches Medium zur dauerhaften Speicherung von Informationen.
  • Produktion: Der ständige Bedarf an Effizienz bei der Verarbeitung von Text, Daten, Bildern und Informationen in Produktivitätsszenarien.
  • Verbreitung: Die Effizienz der Zusammenarbeit.

Wichtige Ereignisse und Trends nach 1990

Jahr Veranstaltung Beschreibung
1993 Intel Pentium Prozessor veröffentlicht Signifikante Verbesserung der CPU-Leistung und Effizienz
1998 Windows 98 und USB 1.1 Standard Machte externe Geräte Plug-and-Play-fähig
2000 Intel Pentium 4 Hochleistungs-Desktop-Großrechner
2003 Explosion der Internetanwendungen MySpace und Facebook, Amazon und eBay
2005 Laptop-Verkäufe übersteigen erstmals Desktop-Computer Intel Centrino Plattform, integriert mit stromsparenden Prozessoren
2007 Der Aufstieg der Netbooks Netbooks basierend auf Intel Atom Prozessoren erscheinen
2011 Ultrabook Ultrabook-Konzept, Laptop vs. Tablet
2018 Smartphone Ersetzte andere Geräte und wurde zum Hauptgerät für mobiles Computing

Die obige Tabelle zeigt sehr interessante Informationen! In den 1990er Jahren begrüßten wir die Veröffentlichung des Intel Pentium Prozessors, die Explosion der Internetanwendungen, die Geburt von Windows 98 sowie das Aufkommen von USB 1.1, Netbooks und Ultrabooks. Diese Reihe technologischer Innovationen skizziert den unveränderten Trend in der Entwicklung von Computern – das Internet hielt wirklich in jedem Haushalt Einzug.

Während dieser Zeit wurden CPUs weiter leichter und die Einführung von USB 1.1 machte die Erweiterung von Peripheriegeräten bequemer, sodass es einfach wurde, Geräte wie Mäuse anzuschließen. Der Aufstieg des Internets führte dazu, dass viele Verbraucher begannen, persönliche Computergeräte zu nutzen. Es ist bemerkenswert, dass die Entwicklung des PCs einen klaren Trend zeigt: Leichtbau und Mobilität. Ein frühes Mikrokosmos des Mobiltelefons war der PDA.

Ultrabook - 2012

Desktop-Computer – 2000

Notebook - 2005

Notebook – 2005

Desktop-Computer - 2000

Ultrabook – 2012

Die obigen Bilder sind KI-generierte Simulationen

Die PDA-Revolution der 1990er Jahre bietet eine interessante Perspektive. Da die Zeit begrenzt ist, werden wir hier nicht näher darauf eingehen. Eine Rückschau auf diesen Verlauf könnte jedoch einige wichtige Analogien für den zukünftigen Entwicklungsweg von KI-PCs oder KI-NAS bieten.

Ich habe dies mit Kollegen bei Lenovo besprochen. Ihre frühe Marktdurchdringung bezog bereits Browser mit ein. Im Jahr 2000 startete Lenovo ein Programm, das den Einwahl-Internetzugang erleichterte, die Netzwerkeinrichtung und Verbindung vereinfachte und so mehr Nutzern den Internetzugang ermöglichte. Das half ihnen, den Markt schnell zu erobern. Dann begann die Ära der Markencomputer.

Eine Konstante in der Entwicklung von PCs ist die Verschiebung hin zu Portabilität und Dünnheit, die es Einzelpersonen ermöglicht, jederzeit und überall auf die digitale Welt zuzugreifen. Ein weiterer Trend ist der Übergang von früher schwerer Produktion zu Multi-Szenario-Durchdringung. In welchen vertikalen Branchen wird sich KI zunächst konzentrieren? Wann wird sie weit verbreitet angenommen? Dies hängt eng mit der zugrundeliegenden Rechenleistung, der Geräteform und der Reife des Betriebssystems zusammen – all das ist miteinander verbunden. Wir sehen, dass die zweite Hälfte der PC-Ära diese Multi-Szenario-Durchdringung verkörpert.

Heute treiben neue Variablen wie GPUs, TPUs und die integrierte NPU von RISC-V die Systementwicklung voran, und diese Systemänderungen werden die Anwendungsschicht durchdringen. Wenn die Zeit reif ist, werden viele interessante KI-native Anwendungen entstehen, die den lokalen Copilot noch leistungsfähiger machen. Es gibt jedoch viele Schlüsselelemente in der Lieferkette, die eine tiefgehende Betrachtung und Beobachtung der Veränderungen bei den Schlüsselakteuren erfordern.

Veränderliche Faktoren, unveränderte Trends

  • 1. Portabilität: Von schwer zu tragbar, geringerer Stromverbrauch und leichtere Geräte – die Einstiegskosten in die digitale Welt deutlich senkend.
  • 2. Multi-Szenario: Gaming, Zeichnen, Programmieren und zugehörige Peripheriegeräte – die Grenzen digitaler Anwendungen erheblich erweiternd.

Was ist der Schlüssel zur Etablierung einer neuen Kategorie? Spezialisierte Geräte vs. universelle Computergeräte

In diesem Prozess stellte ich eine interessante Frage fest: Wie vergleichen sich die heutigen multifunktionalen KI-Hardware mit der PC-Entwicklung der Vergangenheit? Welche Geräteinnovationen werden vom PC verschlungen, und welche nicht? Der PC war damals so dominant, genau wie heute Smartphones, Laptops und Cloud-Computing. In welchen Szenarien kam es also zu einer Divergenz zwischen spezialisierten und universellen Geräten, die letztlich nicht durch ein einziges, einheitliches Gerät ersetzt wurden?

Ich habe festgestellt, dass die 1983 von Nintendo eingeführte Spielkonsole tatsächlich denselben Chip wie der Apple I und II verwendete, aber zu einem spezialisierten Gerät wurde. Bis heute folgt der Kauf einer PS5 oder Xbox derselben Logik. Wenn ein vertikales Szenario ausreichend Tiefe in Rechenanforderungen, Systemvoraussetzungen und Anwendungsszenarien aufweist, kann es eine eigenständige Kategorie spezialisierter Geräte bilden. Der PDA von 1999 ist ein weiteres Beispiel. Er nutzte relativ veraltete, stromsparende Geräte, um den Bedarf an einem persönlichen digitalen Assistenten zu decken. Obwohl der PDA damals noch kein Telefon war, sondern nur ein kostengünstiges Werkzeug für Terminplanung und Kontaktverwaltung, war er viel günstiger als ein PC und besetzte ein kleines Ökosystem tragbarer Geräte, das als Vorläufer des Mobiltelefons angesehen werden kann. Er wurde jedoch nicht vollständig durch spätere Laptops ersetzt; stattdessen überholte die Entwicklung der Mobiltelefone ihn.

Zwischen 1980 und 2000 entstand in der Computerindustrie ein einziges, einheitliches Rechengerät? Das Schlüsselwort lautet „Szenentiefe“.

NES-Konsole-Set.png

NES – 1983

MOS Technology 6502

PDA – 1999

PDA – 1999

Motorola DragonBall 16 MHz

Die Grenze zwischen spezialisierten und universellen Geräten regt uns zum Nachdenken an: Welche der heutigen KI-Smart-Hardware werden von KI-Handys verdrängt, und welche entwickeln sich eigenständig zu neuen Kategorien wie KI-Spielzeug? In Bezug auf Szenentiefe und Investitionen in Assets können wir Spielkonsolen und PDAs als Analogien für tiefgehende Überlegungen verwenden.

Nebenbei bemerkt: die frühen 8-Bit-Prozessoren hatten eine Rechenleistung, die mit heutigen ARM-Prozessoren nicht mithalten konnte; sie waren vergleichbar mit dem Display-Controller in Ihrem Kühlschrank oder Ihrer Mikrowelle zu Hause. Ein Computer von 1980 entsprach im Wesentlichen der Rechenleistung Ihres Kühlschranks. Der Punkt ist: Rückblickend war er nicht so leistungsstark, wie man vielleicht denkt, legte aber die Grundlage für die gesamte PC-Industrie und die Entwicklung des Internets.

PDA vs. PC – Rechenleistung, Kosten, Stromverbrauch, Anwendungsszenarien und Mensch-Computer-Interaktion
Vergleichsdimension PDA PC im Jahr 1999
Rechenleistung Leistungsschwacher Prozessor (z. B. Motorola DragonBall 16 MHz), 2–16 MB RAM, begrenzter Speicherplatz; schwache Grafik- und Multimedia-Fähigkeiten. Leistungsstarker Prozessor (z. B. Intel Pentium III 500 MHz); 64–256 MB RAM, 10–20 GB Festplattenkapazität; leistungsfähige Grafik- und Multimedia-Verarbeitung.
Kosten Preisspanne: 200–600 $;
Hauptsächlich für Personal Information Management (PIM), hohe Kosteneffizienz.
Preisspanne: 1000–2000 $;
Bietet umfassende Computerfunktionen, breite Anwendungsbereiche, hohe Kosteneffizienz.
Stromverbrauch Energiesparendes Design, batteriebetrieben;
Lange Akkulaufzeit, Stromverbrauch von einigen hundert Milliwatt bis zu wenigen Watt.
Hoher Stromverbrauch, typischerweise 100-300 Watt;
Benötigt kontinuierliche Stromversorgung, schlechte Portabilität.
Anwendungsszenarien Terminverwaltung, Kontaktverwaltung, Aufgabenlisten;
Einfache Textverarbeitung, Notizen, E-Mail; betont Portabilität und Schnelligkeit.
Büroarbeit (Textverarbeitung, Tabellenkalkulation);
Unterhaltung (Spiele, Musik, Filme);
Internetsurfen und Kommunikation, Softwareentwicklung, Grafikdesign usw.
Portabilität Kleine Größe, geringes Gewicht; einfach zu transportieren und jederzeit, überall zu verwenden. Große Größe, hohes Gewicht; für den Einsatz an einem festen Standort, nicht leicht zu transportieren.

Heutiger KI-PC, Anwendungen und neue Chancen

Zurück zur Gegenwart: Obwohl sich die Elemente der Industriekette verändert haben, bleibt unverändert die Nachfrage der Menschen nach Datenspeicherung, Produktion und Verbreitung. Auf abstrakter Ebene verschieben sich die Bedürfnisse der Menschen von GUI-Operationen hin zu dem Bedarf an einem Konkurrenten oder einem intelligenten Agenten, der automatisch Code oder Aufgaben erledigt. Was konstant bleibt, ist das Bedürfnis, Informationen zu erfassen und zu speichern. Mit der Einführung von Copilot können Kreative Kontext eingeben und die Maschine ihnen helfen lassen, kreative Skripte zu erstellen oder zu verstehen, was ihre Kollegen tun.

Zum Beispiel kann ein Unternehmen einen Agenten einsetzen, um alle relevanten Brancheninnovationen in Echtzeit zu verfolgen und automatisch wöchentliche Berichte zu erstellen. Diese Methoden zur Speicherung und Erfassung von Produktionsdaten werden immer intelligenter und klüger. Und das Trägermedium dafür wird definitiv anders sein als ein traditioneller PC; es wird ein immer eingeschaltetes, Echtzeit-Rechengerät sein. Früher mussten Menschen eine Maus und eine GUI verwenden, um produktiv zu sein; aber wenn Intelligenz direkt in das Rechengerät eingebettet ist, kann es eigenständig handeln. Das bedeutet, dass die Mensch-Computer-Interaktion nicht mehr auf Maus und Bildschirm angewiesen sein muss. Man kann ihm eine Aufgabe geben, und es kann sie direkt erledigen.

Und der Prozess, all dies zu erreichen, offenbart ein Muster, das im Mikrokosmos der letzten 40 Jahre zu erkennen ist. Daher haben diese zugrunde liegenden Szenarienanforderungen Beständigkeit! Die neue Produktivität, die durch GPT angetrieben wird, wird weiterhin von Produktivitätsszenarien in den Anfangsphasen dominiert, genau wie Lotus 1-2-3 in der DOS-Ära! Darauf können wir aufbauen, neue Produktionsvariablen hinzufügen und mögliche frühe Anwendungsszenarien finden. In Kombination mit der zuvor erwähnten Spieleindustrie, der Bildverarbeitungsindustrie und Methoden zur Produktion, Erfassung und Verbreitung von Daten können wir theoretisch alle Möglichkeiten erkunden.

Digitalisierung ->Intelligentisierung

Beibehaltung: Maschine erwirbt Informationen und bietet personalisierte Empfehlungen.

Produktion: Modelle beteiligen sich an Entscheidungen und unterstützen den Produktionsprozess.

Verbreitung: Maschine übernimmt automatisch Verteilung und Verbreitung.

Neue Produktionsfaktoren

Jetzt können wir vier neue Produktionsfaktoren erkennen: die Entwicklung von GPUs und TPUs, neue Betriebssystemmodelle, Datenprivatisierung und die Menge einzigartiger Nutzerdaten. Wenn diese Faktoren kombiniert werden, könnten wir die Entstehung eines völlig neuen „Compute-and-Storage-integrierten“ Rechengeräts erleben. Seine Position unterscheidet sich von der von Mobiltelefonen, Laptops und sogar der öffentlichen Cloud. Ich werde versuchen, seine Merkmale klar in einer Tabelle aufzulisten.

Private Daten

Große Modelle

GPU/TPU-Rechenleistung

Anwendungen

Frau benutzt Computer.jpg

Ollama-Symbol

GPU/TPU-Illustrator

Autor: Brian Kerrigan
Creative Commons Attribution-Share Alike 3.0 Unported

  • Private Daten: Hochwertige firmeneigene Datenressourcen oder privat erworbene Daten durch Maschinen sind wichtige Vermögenswerte für das Training und die Optimierung von KI-Modellen.
  • Große Modellfähigkeit: Die Fähigkeit zu verstehen, zu generieren und zu schlussfolgern, anpassbar an verschiedene Aufgaben und Szenarien.
  • GPU- oder ASIC-Rechenleistung: Spezialisierte Hochleistungs-Hardware für Inferenz.
  • KI-Anwendungen: Neue Anwendungen basierend auf LLMs, die in verschiedene Szenarien integriert sind.

Szenarien und Träger – Eine Tabelle

Vergleich Mobiltelefon Private Cloud Öffentliche Cloud
KI-Anwendung Leichtgewichtig, Copilot Private Inferenzfähigkeit, Agent OpenAI, Agent
Große Modellfähigkeit 3B 7B – 100B 405B
Rechenleistung Mobilchip, Niedriger Stromverbrauch
6W 20 TOPS
GPU / ASIC, Mittel-hohe Leistung
200W 200 TOPS
Hochleistungs-Cluster, Elastische Skalierung
Betriebssystem Android, iOS
Laufzeitausführung
Voller Datenzugriff
Private Cloud OS
Echtzeit-Aufgabenausführung
Voller Datenzugriff
Cloud-Plattform-spezifisches System
Echtzeit-Aufgabenausführung
Teilweise Autorisierung
Datenspeicherung 2TB Skalierbare Kapazität, Hunderte von TB Skalierbare Kapazität
Akkulaufzeit Akkupack
12 Stunden
Angeschlossen
♾️
Angeschlossen
♾️

Aufgrund der begrenzten Akkulaufzeit wird das Computing zunehmend leichter, was zu den heutigen Mobiltelefonen und Laptops geführt hat. Daher verläuft die technologische Entwicklung stets in Richtung Mobilität und Zusammenarbeit, was langfristige Bedürfnisse der Menschen sind. Ähnlich wie bei der Entwicklung des E-Commerce streben Menschen nach hochwertigeren Marken und leichteren Erlebnissen und wünschen sich tragbarere Akkus und Telefone. Allerdings sind Rechenleistung und Akkulaufzeit durch Energie- und Stromverbrauchsgrenzen eingeschränkt, was das Intelligenzniveau der Modelle, die auf Geräten laufen können, derzeit typischerweise auf dem Niveau von 3 Milliarden Parametern begrenzt.

Das bedeutet, dass, wenn Windows oder das nächste Android-System bereit sind, sie wahrscheinlich auf 3B-Modellen und Copilot basieren werden, was eine neue Generation von KI-Anwendungen inspiriert, wie KI-gesteuerte Browser, E-Mail-Antworttools usw. Der Raum für diese Anwendungen ist begrenzt, aber sie werden dennoch sehr interessant sein, da sie hinter den Kulissen nur 3B-Modelle ausführen können. Dies ist eine Phase, die Mobiltelefone und Laptops unvermeidlich durchlaufen werden, denn aus Sicht des Siliziumprozesses wird sich die KI-Rechenleistung pro Watt nicht schnell dramatisch ändern.

Auf der anderen Seite gibt es reines Cloud-Computing. Das Problem mit der Cloud ist jedoch: Sind Sie bereit, Ihre Daten von Plattformen wie Notion, Slack und Lark einem Cloud-Anbieter anzuvertrauen? Oder sind Sie bereit, einem einzigen Cloud-Dienstleister vollen Zugriff auf Ihre Taobao-, WeChat- und Finanzkonten zu gewähren? Das bringt offensichtlich enorme psychologische Entscheidungskosten mit sich. Daher wird die Cloud auf der höchsten Ebene existieren und die intelligentesten Modellfähigkeiten über API-Aufrufe bereitstellen, die große Unternehmen durchdringen und abdecken.

In der Zwischenzeit hat sich eine Gelegenheit ergeben, ein neues Betriebssystem zu entwickeln. Dieses Betriebssystem wird als Träger für einen intelligenten Agenten fungieren, der auf einem Gerät läuft, das 24 Stunden am Tag eingeschaltet ist. Sie können ihm Aufgaben von Ihrem Telefon oder Laptop senden, und es wird diese automatisch im Hintergrund ausführen. Es verfügt über eine enorme Datenspeicherkapazität und da es keine Rechenleistungseinschränkungen gibt, kann es mit einer GPU im Bereich von hundert Watt ausgestattet werden, die etwa 200 TOPS KI-Rechenleistung bietet. Die Weiterentwicklung von TPUs und NPUs wird die Kosten für Rechenleistung weiter senken, ähnlich der Entwicklung des frühen 8088-Chips.

Auf dieser Grundlage kann ein Echtzeitmodell mit ausreichender Intelligenz entwickelt werden, das für alle dient. Übertragen auf die Gegenwart sind dies die großen Modelle im Bereich von 7B bis 100B, die derzeit veröffentlicht werden und nach der Quantisierung vollständig auf einer 200 TOPS Rechenarchitektur laufen können. Wenn es eine geeignete Betriebssystemunterstützung gibt, wird ein reichhaltiges Ökosystem intelligenter Agentenanwendungen entstehen. Diese systemnahen Modelle sind fein abgestimmt, was wir oft als Edge-Modelle bezeichnen. Obwohl die Industrie viele Elemente umfasst, hat dieses neue Gerät eine klare Positionierung. Genau wie bei einem Laptop, den Sie kaufen, können Sie sich in verschiedene Konten einloggen, ohne sich zu sehr um Datenschutzprobleme sorgen zu müssen, da es Ihr persönliches Rechengerät ist. Es ist intelligent genug, um Ihnen rund um die Uhr zu dienen.

Kreative, Ingenieure und Wissensarbeiter

Kreative

Kreative

Freiberufler

Freiberufler

Programmierer

Programmierer

Abgesehen von Frontend-Innovationen wie Brillen und Kopfhörern ist es sehr wahrscheinlich, dass sich auf der Backend-Seite ein persönliches Computergerät entwickelt, das vom Produktivitäts- zum Konsumgerät wird. Es handelt sich um ein Gerät, das von reinem Computing zu einer Compute-und-Storage-integrierten Lösung übergeht. Heute werden Datenmobilität und Zusammenarbeit verbessert, während die Nachfrage nach Rechenleistung ebenfalls steigt. Ein Compute-und-Storage-integriertes Gerät wird so zu einem notwendigen Träger für einen persönlichen intelligenten Assistenten.

Anfangs könnten solche Geräte sich auf Gruppen wie Kreative, Ingenieure und Wissensarbeiter konzentrieren, um in den Markt einzutreten. Diese haben typischerweise große Mengen an reichhaltigen Mediendaten und Asset-Management-Bedürfnisse und benötigen Produktivitätstools, um ihre Herausforderungen bei Speicherung und Zusammenarbeit zu bewältigen. Dies ähnelt dem Durchdringungspfad früher PCs, die Nutzer ansprechen, die bereit sind zu zahlen und eine starke Nachfrage nach Produktivität haben, um so in dieses neue Schlachtfeld einzutreten.

ZimaCube – Die private Cloud für Kreative

Wir haben kürzlich weitere Interviews mit zahlreichen Kreativen und Content-Profis geführt und dabei ein breiteres Spektrum an Anwendungsszenarien entdeckt. Tatsächlich hat diese Kategorie eine sehr lange Pipeline. Der Ansatz von ZimaCube ähnelt eher Apples vertikaler Integration, und wir müssen überdenken, wie wir in den verschiedenen Phasen vorgehen. Derzeit dient NAS (Network Attached Storage) als Träger für KI. Es durchläuft einen eigenen Iterationsprozess. Innerhalb dieses Prozesses erreichen wir die Kommerzialisierung durch vertikale Integration der privaten Cloud-Lösungen der Kreativen.

ZimaCube Hardware ZimaCube Software-Schnittstelle

Hardware ist nicht die Barriere, sondern der Ausgangspunkt; sie braucht eine gewisse Einzigartigkeit.

System und Anwendungen dienen dem Szenario.

Hardware ist der Ausgangspunkt; es beginnt mit der Hardware, aber der Wert liegt in den Anwendungen. Ein offenes Anwendungsökosystem kann uns helfen, verschiedene aufkommende Anwendungen wie Lotus 1-2-3 früher zu integrieren. Wir müssen nicht überstürzt viele Ressourcen in die Entwicklung von Anwendungen investieren; stattdessen sollten wir eine Plattform aufbauen und diese durch gemeinschaftsbasierte Aktivitäten fördern.

System- und Drittanbieteranwendungen

Bleiben Sie offen, integrieren Sie gängige Anwendungen aus der LocalLLM-Community und bauen Sie einen App Store mit Dokumentation und einzigartigen Anwendungsstandards auf.

Die Notwendigkeit, Systeme und Gemeinschaften in einem globalen Geschäftskontext zu verbinden

Hybrid-Hardware- und Softwareprodukte sind jedoch tatsächlich schwer zu schaffen. Im heutigen China benötigen viele innovative Unternehmen doppelte Fähigkeiten. In Bezug auf organisatorische Fähigkeiten müssen sie einerseits einen „Wasserfall“-Ansatz für Hardwaremanagement und Produktionsprozesse verfolgen, um Hardwarekosten und -risiken zu kontrollieren; andererseits müssen sie eine agile, iterative Logik aufbauen, um Softwaresysteme wöchentlich oder monatlich zu aktualisieren.

Gemeinschaften können ein hervorragendes Mittel sein, um globale Nutzerbedürfnisse und Feedback in unsere Softwaresysteme zurückzuführen. Hardware selbst benötigt möglicherweise keine häufigen Updates. Wenn Sie eine Powerbank verkaufen, können Amazons Bewertungen und Wasserfall-Management die Produktdefinition und einen einjährigen Verkaufszyklus vervollständigen. Doch heute gibt es nur wenige Nischen für kreative Unternehmen, die sich ausschließlich auf Hardwarelieferungen verlassen. Die meisten Kategorien, die auf Skaleneffekten basieren, werden von Giganten dominiert, und es gibt keine neuen Traffic-Strukturen, die den Markt schnell erweitern können.

Eine universelle Herausforderung: Ein Aufruf an die nächste Generation von Plattformbauern

Die Geschichte zeigt, dass jede Ära des Rechnens letztlich von einer oder wenigen dominanten Plattformen geprägt wird. Heute ist der Aufbau dieser neuen Plattform eine gemeinsame Chance und Herausforderung für alle Innovatoren weltweit. Dies erfordert eine beispiellose und umfassende Fähigkeit, die Grenzen überschreitet:

Tiefe Integration von Hardware und Software: Dies erfordert die perfekte Verschmelzung der „Wasserfall“-Strenge der Hardwareentwicklung mit der „agilen“ Iteration der Software. Erfolgreiche Innovation dreht sich nicht mehr nur um Hardware oder Software, sondern um ein nahtlos integriertes „Hybridprodukt“.

Gemeinsamer Aufbau von Ökosystemen und Gemeinschaften: So wie der Homebrew Computer Club die PC-Revolution entfachte, sind heutige Open-Source-Communities (wie LocalLLM) die Wiegen der nächsten Generation von „Killer-Apps“. Ein geschlossenes System mag kurzfristig gewinnen, aber nur ein offenes Ökosystem kann die Zukunft gewinnen.

Daher lautet die wichtigste Lektion aus den 1980er Jahren nicht Geografie, sondern Vision. Die Sieger jener Zeit gewannen nicht, weil sie im Silicon Valley waren, sondern weil sie Chips, Systeme und Anwendungen erfolgreich zu einer Plattform integrierten, die Menschen befähigte und ein neues Zeitalter einläutete.

Heute ist die Bühne bereitet. Für Unternehmer und Investoren weltweit stellt sich nicht die Frage, „wo“ Innovationen entstehen, sondern „wie“ die neuen Produktionsfaktoren – private Daten, KI-Modelle und zugängliche Rechenleistung – effektiv in eine neue, menschenzentrierte Plattform organisiert werden können, die Kreativität freisetzt. Dies ist keine Solovorstellung eines einzelnen Landes oder einer Region, sondern ein globales Unterfangen, das uns alle betrifft und darauf abzielt, die Zukunft des Rechnens neu zu gestalten.

Zima Kampagnen-Zentrale

Mehr zum Lesen

Get More Builds Like This

Stay in the Loop

Get updates from Zima - new products, exclusive deals, and real builds from the community.

Stay in the Loop preferences

We respect your inbox. Unsubscribe anytime.