Historia komputerów PC i sztuczna inteligencja: przewidywanie przyszłości sprzętu brzegowego

Eva Wong jest Technicznym Redaktorem oraz stałym majsterkowiczem w ZimaSpace. Życiowa geek z pasją do homelabów i oprogramowania open-source, specjalizuje się w tłumaczeniu złożonych koncepcji technicznych na przystępne, praktyczne przewodniki. Eva wierzy, że self-hosting powinien być zabawą, a nie czymś onieśmielającym. Poprzez swoje tutoriale umożliwia społeczności rozwikłanie konfiguracji sprzętowych, od budowy pierwszego NAS po opanowanie kontenerów Docker.

Ten materiał pochodzi z sesji dzielenia się wiedzą przez IceWhale Technology w ramach FreeS Fund. Ma na celu przegląd kluczowych przemian, trendów rozwojowych, ważnych wydarzeń oraz stałych potrzeb konsumentów w branży PC Doliny Krzemowej lat 80. Artykuł jest dość obszerny, obejmuje stan chipów w latach 80., początek i penetrację PC, zmiany w systemach DOS i Windows 1.0 w latach 1980-1990, wczesne killer apps PC oraz scenariusze zimnego startu. Mamy nadzieję, że przeczytasz go cierpliwie, dążąc do zainspirowania swoich decyzji inwestycyjnych i innowacji produktowych w sprzęcie i aplikacjach AI.

Cytując Ray’a Dalio z Bridgewater Associates:

Idea, że historia ludzkości ma powtarzające się wzorce, to po prostu rzeczywistość. Może „cykl” nie jest właściwym słowem na to, być może powinno to być wzorem, ale myślę, że oba opisują ten proces.

—— Ray Dalio

Wzrost PC, proces informatyzacji i cztery kluczowe elementy

Muzeum Historii Komputerów, Dolina Krzemowa lat 80.

Apple I – 1976

Apple I – 1976

$666

Autor: The wub
Licencja: Creative Commons Uznanie Autorstwa-Na tych samych warunkach 4.0

Apple II – 1977

Apple II – 1977

MOS Technology 6502, 8-bit, kolor, 1200$+, 8 slotów rozszerzeń

Autor: Rama
Licencja: CC BY 2.0

IBM PC - 1981

IBM PC – 1981

Intel 8088, 16-bit, 16 MHz, 1500$

Autor: Rama & Musée Bolo
Licencja: CC BY-SA 2.0 fr

Commodore 64 - 1982

Commodore 64 – 1982

595$ -> 299$

Autor: Bill Bertram
Licencja: Creative Commons Uznanie Autorstwa-Na tych samych warunkach 2.5

Dziś, gdy OpenAI, Google i Microsoft wyznaczają „erę inteligencji” opartą na dużych modelach, cofnijmy się najpierw do wczesnej „ery informacji” zbudowanej przez narodziny PC w 1976 roku. To był moment narodzin Apple I. Ten komputer został wprowadzony przez Steve’a Jobsa i Steve’a Wozniaka w społeczności geeków zwanej Homebrew Computer Club, w cenie 600 dolarów. Premiera Apple I w klubie przypominała dzisiejszy projekt crowdfundingowy na Kickstarterze. Był skierowany wyłącznie do geeków, wymagał ręcznego składania części i był sprzedawany jako zestaw… wczesna sprzedaż wyniosła nieco ponad 200 sztuk. Jednak ten produkt położył fundamenty pod Apple, pomagając Jobsowi i jego zespołowi zgromadzić pierwszą grupę użytkowników startowych.

Niedługo potem, w 1977 roku, Apple wypuściło Apple II. Ta generacja była nie tylko bardziej dopracowana pod względem wyglądu, dodając kolorowy wyświetlacz, ale także zawierała sloty rozszerzeń i zintegrowaną obudowę, co ułatwiało geekom rozbudowę i samodzielne modyfikacje. Jednak inne kluczowe specyfikacje nie zmieniły się znacząco. Wydanie Apple II było kamieniem milowym; cena wynosiła 1250 dolarów, znacznie poniżej kosztownych komputerów komercyjnych tamtych czasów.

Cztery lata później IBM, podobno pod presją rynku, wysłał zespół 12 osób do uruchomienia projektu o kryptonimie „Project Chess”, umacniając swoją pozycję lidera branży. Jako wiodące przedsiębiorstwo, naturalnie musieli złożyć mocne oświadczenie. Wprowadzili IBM PC oparty na procesorze Intela i przyjęli otwartą architekturę sprzętową. To otworzyło drzwi dla innych producentów do tworzenia kompatybilnych urządzeń, co z kolei sprzyjało powstaniu ekosystemu Wintel. Otwartość strategii IBM szybko doprowadziła do akceptacji standardu PC przez rynek.

Commodore 64 z 1982 roku to kolejna firma warta uwagi, choć nie zaszła zbyt daleko. Na początku poprawnie przewidziała kilka kluczowych strategii. Oferowała wiodącą grafikę i dźwięk w konkurencyjnej cenie 595 dolarów, co spotkało się z dobrym odbiorem. Jednocześnie Commodore priorytetowo traktowało ekspansję na rynek europejski, z którego pochodziła ponad połowa przychodów. Wykorzystując lokalne sieci dystrybucji i reklamę, szybko zdobyła popularność, tworząc solidne podstawy dla swojej obecności na globalnym rynku komputerów domowych.

Tak jak dziś istnieje wiele podkanałów na Reddicie dla dużych modeli takich jak ChatGPT, LocalLLM i Stable Diffusion, tak na początku każdej ery wiele utalentowanych osób i pomysłów pochodziło ze społeczności online i offline. To nie jest dziś tak obce światu, ponieważ wielu gigantów technologicznych spędzało czas na forach BBS, gdy internet dopiero się pojawił, zanim rozproszyli się po różnych branżach. Dziś społeczność wokół dużych modeli na czołowych uniwersytetach ma podobne cechy.

Ale co jest jeszcze ciekawsze, to fakt, że takie kluby mają tendencję do stopniowego zanikania w ciągu dekady. Schemat jest taki, że gdy pojawia się nowa kategoria, przyciąga grupę entuzjastów bardzo aktywnych w społeczności, którzy proponują różne pomysły, a nawet tworzą wczesne prototypy produktów. Gdy duże firmy wkraczają na scenę, a innowacje przesuwają się w stronę komercjalizacji, wczesne, oddolne pomysły rodzące się w społeczności stopniowo dojrzewają i nabierają treści. Jednak te społeczności często mają „przeznaczenie”: są niezwykle kwitnące w okresach aktywnej innowacji, ale ich popularność maleje wraz z dojrzewaniem branży i pojawieniem się gigantów. Homebrew Computer Club, a także rozwój dzisiejszego przemysłu modeli, druku 3D i quadkopterów, wszystkie podążają za tym schematem „boom i upadek”.

Ic-photo-Intel--P8088--(8088-CPU)-v2.png

Autor: ZyMOS

Creative Commons Uznanie Autorstwa-Na Tych Samych Warunkach 4.0

Intel 8088 to klasyczny procesor wydany w 1979 roku, używany w IBM PC.

  • 8-bitowa magistrala danych, 16-bitowe przetwarzanie wewnętrzne: Chociaż wewnętrznie był 16-bitowy, używał 8-bitowej zewnętrznej magistrali danych, co obniżało koszty sprzętu.
  • Prędkość zegara 4,77 MHz: Umiarkowana szybkość przetwarzania, wystarczająca do obsługi edytorów tekstu i prostych gier tamtego czasu.
  • Obsługa 1 MB pamięci: Może uzyskać dostęp do maksymalnie 1 MB pamięci.
  • Zgodność z zestawem instrukcji x86: Zgodny z późniejszymi procesorami serii x86, co położyło podwaliny pod standaryzację PC.
  • Obudowa 40-pinowa, niskie zużycie energii: Mały rozmiar i niskie zużycie energii, odpowiednie do potrzeb komputerów stacjonarnych tamtego czasu.

Po drugie, spójrzmy na układy z tamtego czasu, które stanowiły fundament kategorii PC. Definicja PC jest nierozerwalnie związana z ciągłym spadkiem kosztów układów i „wystarczającą” mocą obliczeniową. Bycie odpowiednim do użytku i przystępnym cenowo pozwoliło PC wejść na rynek masowy. Intel 8088 jest typowym przykładem. 8088 zmodyfikował szerokość magistrali w porównaniu do swojego poprzednika, 8086, co skutkowało niższymi kosztami, pozwalając mu stać się głównym układem IBM PC.

W tamtym czasie główny sprzęt komputerowy IBM dla zastosowań komercyjnych i wojskowych był bardzo duży i potężny, ale całkowicie „przesadzony” dla rynku osobistego. Z kolei 8088 był krokiem w dół, oferując zrównoważoną moc obliczeniową przy niższych kosztach, podobnie jak dzisiejsze urządzenia NAS (Network Attached Storage), które upraszczają serwery komercyjne do rozmiaru i mocy obliczeniowej odpowiedniej do użytku domowego, pozwalając indywidualnym użytkownikom mieć własne małe rozwiązania obliczeniowe.

Jeśli NVIDIA H200 jest dziś liderem komercyjnym, kto rozwija układy ASIC, które wprowadzą modele do różnych terminali obliczeniowych, takich jak AI PC czy AI NAS?

Ewolucja systemów – Każde pokolenie chwali się swoim „przyjaznym interfejsem użytkownika”

Podobnie jak dziś każda firma twierdzi, że ma „inteligentny system”

Apple II Dos

Autor: Vadim Rumyantsev
domena publiczna

Apple II DOS – 1978

Entuzjaści technologii, małe firmy

Interfejs wiersza poleceń

Xerox Star OS – 1981

Użytkownicy korporacyjni

Pierwszy, który wprowadził GUI; luksusowy produkt w cenie 16 595 dolarów…

Apple Macintosh Classic

Autor: Eric Chan z Hongkongu
Creative Commons Uznanie Autorstwa 2.0

Macintosh – 1984

Masowi konsumenci, profesjonaliści kreatywni, edukacja

Powszechne przyjęcie GUI

DOS – System Operacyjny Dysku

Po trzecie, spójrzmy na wczesne systemy operacyjne. Podobnie jak dziś ludzie „dopasowują” modele, było to zasadniczo coś, czym mogli zajmować się tylko inżynierowie. Około 1978-79 roku tylko około dziesięciu tysięcy inżynierów w Dolinie Krzemowej pracowało z systemami DOS, które były całkowicie oparte na wierszu poleceń, bez interfejsu graficznego. Na tym etapie systemy operacyjne były dalekie od przenikania do codziennego użytku przedsiębiorstw i ogółu społeczeństwa, podobnie jak dzisiejsze modele AI, które wciąż są w rękach grupy technologicznych zapaleńców.

Dopiero w 1981 roku, wraz z premierą pierwszego komputera PC IBM, system DOS stopniowo zyskiwał na znaczeniu, ale nadal był to system wiersza poleceń bez GUI. Dlatego scenariusze obliczeniowe tamtego czasu były bardzo podobne do dzisiejszej sztucznej inteligencji: wymagały dużej liczby entuzjastów technologii i inżynierów, którzy wielokrotnie dostosowywali i integrowali system, aby osiągnąć konkretne zastosowania. To, co naprawdę wprowadziło komputery PC i systemy operacyjne na poziom przedsiębiorstw, to graficzny interfejs użytkownika (GUI) Xerox Star, który zapoczątkował pierwszą prawdziwą falę rozszerzenia użytkowników.

W 1984 roku system graficznego interfejsu użytkownika wprowadzony przez Apple jeszcze bardziej rozszerzył bazę użytkowników na dziedziny kreatywne, edukacyjne i inne profesjonalne, powoli otwierając masowe zastosowanie systemów operacyjnych. Jednak w tym okresie systemy DOS i GUI współistniały przez długi czas, a firmy utrzymywały dwa oddzielne systemy, aby zaspokoić różne potrzeby.

Ekosystem aplikacji z wczesnych lat 80., to, co dziś nazywamy „killer apps”

Lotus 1-2-3 – 1982

Lotus-123-3.0-MSDOS

Autor: Odacir Blanco
Domena publiczna
Finanse korporacyjne, małe i średnie przedsiębiorstwa

WordPerfect – 1985

Wordperfect-5.1-dos

Licencja: Domena publiczna
Prawo i nauka

Po czwarte, ekosystem aplikacji, który stopniowo rozwijał się wraz z możliwościami systemu i sprzętu! Oto kilka reprezentatywnych aplikacji i przegląd ich ścieżki penetracji w rewolucji produktywności na PC.

W tych wczesnych systemach interfejsu użytkownika rynek nie osiągnął jeszcze skali konsumenckiej i składał się głównie ze scenariuszy produktywności. Niektóre aplikacje zaczęły się wyróżniać, takie jak Lotus 1-2-3, słynne oprogramowanie do zarządzania finansami i wczesna wersja Excela. WordPerfect, wydany w 1985 roku, był głównie używany w dziedzinach prawnych i akademickich. Jednak te operacje edycyjne nie były wykonywane przez dopracowany graficzny interfejs, lecz opierały się na linii poleceń DOS. Pracownicy wiedzy musieli nauczyć się odpowiednich operacji w wierszu poleceń, aby wykonać zadania edycyjne.

W dziedzinie badań akademickich użycie komputerów PC do digitalizacji dokumentów i współpracy przyniosło ogromne usprawnienia efektywności. Dlatego do 1988 roku wskaźnik penetracji komputerów PC w środowisku akademickim był bardzo wysoki w scenariuszach takich jak transfer plików, komunikacja e-mailowa i edycja tekstu. Jednak dopiero w 1989 roku, wraz z ulepszeniem mocy obliczeniowej procesorów i możliwości przetwarzania GUI, zaczęło to mieć duży wpływ na branże takie jak druk i projektowanie reklam. To trochę jak dzisiaj; chociaż OpenAI wypuściło model świata wideo, nie został on szybko zastosowany w praktycznych scenariuszach, ponieważ dojrzewanie zasobów obliczeniowych i technologii GUI wymaga czasu.

Powyższe obrazy to symulacje generowane przez AI

CorelDRAW – 1989

CorelDraw -1989

Projektanci graficzni, przemysł poligraficzny

Quicken – 1984

Quicken - 1984

Użytkownicy indywidualni, małe firmy

Flight Simulator – 1985

Flight Simulator - 1985

Entuzjaści lotnictwa, studenci

Na wczesnym etapie nowej platformy komputerowej innowacje aplikacyjne, które zagłębiają się w pionowe scenariusze, nadal mają ogromną wartość dla branży. Jeśli przeprowadzimy analogię do teraźniejszości, wierzę, że w przyszłym roku, gdy moc obliczeniowa TPU w komputerach PC będzie gotowa, a Windows jako standardowy pośredni system operacyjny będzie mógł zapewnić potężną moc obliczeniową AI dla aplikacji wyższego poziomu, pojawi się nowa fala aplikacji PC związanych ze sztuczną inteligencją, podobnych do Copilota, działających bezpośrednio na krawędzi.

W tym kontekście Quicken jeszcze bardziej pogłębił doświadczenia w scenariuszach biznesowych opartych na Lotusie. Ulepszył interfejs interakcji i konfigurowalność oryginalnego systemu DOS, rozwijając się głęboko pod kątem potrzeb zarządzania finansami i małych firm. Dało to tym wczesnym aplikacjom dobrą przestrzeń do przetrwania.

Jednak ceny tych aplikacji były dość wysokie. Na przykład Lotus 1-2-3 kosztował prawie 500 dolarów, co było bardzo drogim rozwiązaniem w 1985 roku. Wskazuje to, że wczesne scenariusze produktywności były głównie napędzane przez konsumentów o dużej sile nabywczej.

Ponadto istniały gry i symulatory dla entuzjastów, takie jak „Flight Simulator” na Windows, które oferowały bardziej zróżnicowane i lekkie funkcje produktów, przyciągając nowych użytkowników lubiących eksplorować i eksperymentować. Dlatego możemy zauważyć, że wczesny ekosystem PC został zbudowany przez połączenie zaawansowanych narzędzi produktywności, penetracji małych i średnich przedsiębiorstw, badań przemysłowych i akademickich oraz kilku interesujących przełomowych aplikacji. Jednak proces ten trwał bardzo długo, ponieważ podstawowe technologie DOS i GUI rozwijały się stosunkowo powoli.

Konkretnie, dostawcy aplikacji tacy jak Lotus odegrali kluczową rolę. Nie byli dostawcami systemów operacyjnych; ci ostatni skupiali się na budowaniu niezawodności, harmonogramowaniu zasobów i skalowalności systemu. W okresie od 1982 do 1990 roku Lotus wykorzystał okazję, aby wypełnić lukę na rynku. Apple i Microsoft nie zaczęli wydawać swoich kompletnych pakietów Office aż do lat 90., dając tym aplikacjom systemowym przewagę rynkową wynoszącą 7 do 8 lat. Wykorzystali popularność IBM PC i systemu DOS, aby szybko wejść na rynek użytkowników korporacyjnych, księgowości finansowej i innych dziedzin. Ci użytkownicy mieli duże potrzeby przetwarzania danych, a połączenie nowych komputerów i oprogramowania Lotus osiągnęło pełne przenikanie w tych scenariuszach.

Windows 1.0 i „szalona” kampania sprzedażowa Ballmera

Wracając do 1985 roku, udział Lotus na rynku przekroczył już 50%. Wobec wysokiej ceny 495 dolarów, łatwo zrozumieć, dlaczego Steve Ballmer, promując Windows 1.0, podkreślał: „Oferujemy grę w szachy, arkusz kalkulacyjny i przetwarzanie obrazów za jedyne 99 dolarów, a nie 500 czy 600.” W tamtym czasie cena oprogramowania była bardzo atrakcyjnym argumentem sprzedażowym w marketingu. Sprzedając system operacyjny, specjalistyczne oprogramowanie graficzne, takie jak CorelDRAW, nieco podobne do późniejszego Photoshopa, zapewniało użytkownikom profesjonalne funkcje przetwarzania obrazów.

Lotus 1-2-3

Firma: Lotus Development Corporation

Tło: Lotus 1-2-3 został opracowany przez Lotus Development Corporation, założoną przez Mitcha Kapora w 1982 roku. Lotus 1-2-3 był pierwszym oprogramowaniem na IBM PC oferującym zintegrowane funkcje arkusza kalkulacyjnego, grafiki i zarządzania bazą danych, szybko stając się jednym z najpopularniejszych programów użytkowych, zwłaszcza wśród użytkowników biznesowych i korporacyjnych.

Profil użytkownika: Głównymi użytkownikami byli pracownicy przedsiębiorstw, zwłaszcza analitycy finansowi, księgowi i menedżerowie. Użytkownicy ci zazwyczaj posiadali pewien poziom wiedzy technicznej i byli bardzo wrażliwi na dane.

Główne zastosowania: Używany do zarządzania danymi, skomplikowanego modelowania finansowego, budżetowania, generowania raportów oraz różnych innych form analizy danych. Potężne funkcje Lotus 1-2-3 uczyniły go najlepszym wyborem do arkuszy kalkulacyjnych w przedsiębiorstwach.

1983: Lotus 1-2-3 został wprowadzony na rynek i szybko stał się liderem, zwłaszcza na kompatybilnych z IBM PC.

1985: Udział w rynku przekroczył 50%, przy cenie 495 dolarów.

CorelDRAW

Firma: Corel Corporation

Tło: Pod koniec lat 80., wraz z popularyzacją graficznych interfejsów użytkownika (GUI) i komputerów osobistych (PC), rynek projektowania graficznego i publikacji komputerowej szybko się rozwijał. Tradycyjne procesy projektowe (ręczne rysowanie i skład tekstu) zaczęły przechodzić na formę cyfrową.

Profil użytkownika: Mieli pewną wiedzę na temat projektowania graficznego na komputerze, ale niekoniecznie byli ekspertami technicznymi.

  • Profesjonalni projektanci i ilustratorzy: Potrzebowali precyzyjnych narzędzi do rysowania wektorowego, aby tworzyć ilustracje, logotypy i inne prace projektowe.
  • Specjaliści ds. publikacji komputerowej (DTP): Potrzebowali łączyć tekst i grafikę, aby tworzyć książki, czasopisma, materiały promocyjne itp.
  • Małe i średnie przedsiębiorstwa oraz freelancerzy: Korzystali z CorelDRAW do tworzenia logo firmowych, reklam i materiałów marketingowych bez potrzeby posiadania drogiego, dedykowanego sprzętu i oprogramowania do projektowania.

1989: CorelDRAW 1.0 był pierwszym oprogramowaniem łączącym projektowanie grafiki wektorowej i funkcje publikacji na komputerze, a jego premiera zapoczątkowała rewolucję w dziedzinie projektowania graficznego. Ta wersja obsługiwała funkcje takie jak wielostronicowość, edycja krzywych i edycja tekstu.

Od przejętego MS-DOS 1.0 do Windows + Office

Czas Tytuł Szczegóły
1981 MS-DOS 1.0 Potwierdzono partnerstwo z IBM
1982 MS-DOS 1.25 Licencjonowany markom kompatybilnym firm trzecich
1983 MS-DOS 2.0
Microsoft Word
Ulepszona funkcjonalność systemu
Wsparcie dla dysków twardych i struktur katalogów
1985 Windows 1.0 Dodano graficzny interfejs na bazie Microsoft MS-DOS
1987 Windows 2.0 Lepsze wsparcie grafiki i wydajność
Nakładające się okna i skróty klawiszowe
1988 MS-DOS 4.0 Wprowadzono graficzny interfejs użytkownika DOS Shell
1989 Microsoft Office Zapewniono integrację automatyzacji biurowej dla Windows

Wzrost Microsoftu nie wynikał być może z jego początkowych produktów, lecz z doskonałej strategii biznesowej. Już na początku Microsoft wykazał się bystrością biznesową, przejęciem systemu operacyjnego firm trzecich o nazwie 86-DOS [tak, kupili go…]. Ten ruch uczynił ich ważnym partnerem dla IBM. Co zaskakujące, Microsoft szybko się rozwinął w drugim roku, współpracując z innymi producentami sprzętu, podobnie jak dziś po tym, jak Tesla zdefiniowała standardy branżowe, wiele firm poszło w ich ślady, napędzając cały ekosystem ODM i ustanawiając standardy AIPC.

Po tym, jak Microsoft zdefiniował standard, producenci sprzętu zaczęli działać. Wracając do dzisiejszego toru AI PC i zastosowań edge AI, zobaczymy na rynku wiele laptopów z mocą obliczeniową AI na poziomie 40 TOPS, a Qualcomm podejmuje podobne działania. To wprowadza nowe zmienne: z jednej strony sprzęt jest ulepszany, a z drugiej podkreśla się znaczenie systemu operacyjnego w warstwie pośredniej. System operacyjny musi efektywnie przydzielać 40 TOPS zasobów obliczeniowych, aby sprostać potrzebom wielu aplikacji wyższej warstwy. Microsoft mocno inwestował w rozwój systemu operacyjnego, przez długi czas nie mając czasu na rywalizację z Lotus czy WordPerfect.

To dopiero w trzecim roku Microsoft zaczął naśladować WordPerfect [system przejmuje kluczowe aplikacje], i trwało to aż do 1989 roku. Przez osiem lat Microsoft umacniał swoje licencjonowanie systemu dla firm trzecich i zaczął samodzielnie sprzedawać Windows 1.0 w 1985 roku. Warto zauważyć, że Windows 1.0 został wydany pełne cztery lata po systemie GUI Xerox, co pokazuje długi proces rozwoju systemu operacyjnego. Wczesne wersje Windows były głównie dołączane do urządzeń sprzętowych, a sprzedaż sięgała dziesiątek tysięcy sztuk w pierwszych dwóch-trzech latach, z łączną liczbą wysyłek pięciu do sześciu milionów sztuk w ciągu ośmiu lat.

Rewolucja produktywności kontra każdy dom

Wówczas główny rynek komputerów osobistych nie ograniczał się do Ameryki Północnej; kraje rozwinięte w Europie również importowały te urządzenia drogą morską. Baza użytkowników koncentrowała się głównie na zaawansowanych scenariuszach produktywności. Nie było to aż do 1989 roku, gdy zaczęły pojawiać się aplikacje takie jak przetwarzanie obrazów, które napędzały nowe zastosowania. Nawet po wprowadzeniu systemów GUI nie weszły one od razu na masowy rynek konsumencki. Prawdziwe wejście do zwykłych domów nastąpiło około 1994 roku, wraz z rozwojem przeglądarki Netscape i internetu, kiedy coraz więcej osób korzystających z komputerów w pracy zaczęło kupować je do domów.

Ta ścieżka ewolucji technologicznej, od rewolucji produktywności do eksplozji konsumenckiej, jest wyraźnie widoczna w erze PC. Dziś informacje rozprzestrzeniają się szybko, a czy AI może wzmocnić każdy scenariusz konsumencki, wymaga jeszcze czasu na weryfikację. Na wczesnym etapie może być konieczne zwrócenie większej uwagi na zmiany po stronie produkcji i dostaw.

Kolejnym kluczowym czynnikiem jest ewolucja interakcji człowiek-komputer. Wprowadzenie myszy stworzyło nowy sposób interakcji człowieka z komputerem, co znacznie wpłynęło na popularyzację komputerów osobistych. Podobnie możemy spojrzeć na obecną strukturę, analizując trajektorię rozwoju Microsoftu. Jeśli dzisiejsze OpenAI potwierdza możliwość istnienia systemu operacyjnego AI w chmurze, to na krawędzi, bez wsparcia systemu operacyjnego, aplikacje wyższego poziomu będą miały trudności z rozwojem. Gdy system operacyjny i sprzęt osiągną kluczowe przełomy, aplikacje końcowe mogą doświadczyć gwałtownego wzrostu.

Dziś komunikujemy się za pomocą języka naturalnego i strumieni wideo, a te nowe zmienne wpłyną również na scenariusze zastosowań AI. Krótko podsumowując, powodem, dla którego Microsoft od 1981 do 1989 roku rozwijał równolegle DOS i GUI, była konieczność kompatybilności z dużą liczbą urządzeń sprzętowych. To również wyjaśnia, dlaczego Steve Jobs kiedyś patrzył z góry na system Windows, uważając go za skomplikowany i nieestetyczny. Jednak z perspektywy biznesowej Microsoft stawiał pewne kroki: od przejęcia kodu i uruchomienia GUI po wydanie Office osiem lat po Lotusie, w każdym aspekcie umacniał swoją pozycję w ekosystemie.

Spojrzenie na obecną architekturę Windows przez pryzmat Windows NT

Schemat architektury Windows NT z przetłumaczonymi komponentami

Schemat architektury Windows NT z przetłumaczonymi komponentami

  • Podsystemy trybu użytkownika: Kompatybilność aplikacji
  • Menedżer okien i GDI: Interfejs użytkownika i zarządzanie oknami
  • Menedżer zasilania: Zarządza zasilaniem
  • Menedżer PnP: Menedżer urządzeń Plug and Play
  • Menedżer procesów: Zarządza procesami
  • VMM: Menedżer pamięci wirtualnej
  • Menedżer IPC: Komunikacja międzyprocesowa, np. przesyłanie wiadomości
  • Monitor bezpieczeństwa: Autoryzacja i bezpieczeństwo
  • Menedżer I/O: Zarządza żądaniami wejścia/wyjścia dla urządzeń
  • Menedżer obiektów: Zapewnia jednolitą kontrolę i bezpieczeństwo obiektów takich jak pliki, procesy i urządzenia
  • Microkernel: Podstawowe funkcje systemu operacyjnego, komunikacja międzyprocesowa, zarządzanie wątkami
  • Sterowniki w trybie jądra: Bezpośrednio współpracują ze sprzętem, zapewniając interfejsy sprzętowe dla systemu
  • HAL: Warstwa abstrakcji sprzętu, chroni różnice między sprzętem

Podsumowanie czterech elementów – widząc zmienne i stałe zapotrzebowania

Chipy, System, Aplikacje i Urządzenia

Pamięć/Obliczenia

Chip

Sterownik

System

Interfejs systemu operacyjnego

Podstawa

Aplikacja

klasyczna aplikacja

Wartość dla użytkownika

Produkt

produkt końcowy

Pojazd

W tym procesie warto zwrócić uwagę na kilka kluczowych elementów. Pierwszym jest ewolucja jednostek przechowywania i obliczeniowych. Chociaż koszty wczesnych chipów i pamięci spadły, nie zmniejszyły się znacząco, co wiąże się z postępem prawa Moore’a. Dziś wdrożenie edge computingu jest również możliwe, ponieważ rozwój technologiczny osiągnął pewien punkt krytyczny.

Po drugie, system operacyjny, jako ważne oprogramowanie pośredniczące, realizuje kluczowe zadania, takie jak zarządzanie zasobami i adaptacja urządzeń. Chociaż wczesne systemy nie były potężne, ich znaczenie było oczywiste.

Po trzecie, wczesne aplikacje-klucze mogły przynosić zyski, ale jeśli nie były rozwijane dogłębnie, mogły ostatecznie zostać zastąpione [to, co teraz często nazywa się scenariuszami wertykalnymi, wymagającymi głębokości]. Czy dostawcy aplikacji potrafią zejść na poziom systemu operacyjnego, to nadal pytanie warte rozważenia.

Ostatecznie wartość jest przejmowana przez pojazd komercyjny. Na początku ludzie kupowali sprzęt jako pojazd, ale wraz z ustanowieniem platform systemowych znaczenie sprzętu stosunkowo zmalało. W erze, gdy „platforma jest królem”, system operacyjny nie tylko dzielił wartość, ale także rozwijał bogaty ekosystem aplikacji. Zjawisko to zostało również potwierdzone w erze internetu mobilnego.

Możemy odnieść te cztery elementy — sprzęt, system operacyjny, aplikacje i interakcję człowiek-komputer — do obecnego rozwoju sztucznej inteligencji. Po stronie podaży powinniśmy zastanowić się, dlaczego ludzie potrzebują komputerów i modeli AI. Nieustającym zapotrzebowaniem jest efektywne i wygodne przechowywanie oraz edycja informacji. Każda generacja urządzeń komputerowych dąży do bardziej naturalnej i łatwiejszej interakcji człowiek-komputer, co jest tematem wiecznym.

Na koniec, dystrybucja i udostępnianie informacji są również ważnymi czynnikami napędzającymi rozwój technologii. Od wczesnej poczty elektronicznej po późniejsze przeglądarki, ewolucja metod dystrybucji zaspokoiła głębokie potrzeby ludzi związane z cyfryzacją. Dziś powszechnie uważamy, że znajdujemy się w fali inteligentyzacji, podobnie jak w przeszłości podczas rewolucji informacyjnej, i możemy korzystać z historycznych wzorców, aby wyciągać analogie i myśleć o przyszłych kierunkach.

  • Warstwa technologiczna (kluczowa dla przechowywania/obliczeń): Rozwój kluczowych technologii sprzętowych, takich jak procesory (moc obliczeniowa) i pamięć (nośniki danych).
  • Warstwa platformy: Podstawowa platforma PC, zapewniająca interfejsy ze sprzętem i środowisko uruchomieniowe dla aplikacji wyższej warstwy.
  • Warstwa aplikacji: Oprogramowanie aplikacyjne jest główną motywacją użytkowników do zakupu komputerów i ważnym czynnikiem przyciągającym użytkowników do danej platformy.
  • Środek transakcji: Produkty sprzętowe to fizyczne urządzenia, które użytkownicy końcowi kupują, dostępne do wyboru i zakupu.

Popyt – cyfryzacja:

  • Przechowywanie: Wygodne medium do trwałego zapisywania informacji.
  • Produkcja: Stała potrzeba efektywności w przetwarzaniu tekstu, danych, obrazów i informacji w scenariuszach produktywności.
  • Dystrybucja: Efektywność współpracy.

Kluczowe wydarzenia i trendy po 1990 roku

Rok Wydarzenie Opis
1993 Premiera procesora Intel Pentium Znacząca poprawa wydajności i efektywności procesorów
1998 Windows 98 i standard USB 1.1 Umożliwienie podłączania urządzeń zewnętrznych typu plug-and-play
2000 Intel Pentium 4 Wydajny komputer stacjonarny klasy mainframe
2003 Eksplozja zastosowań internetu MySpace i Facebook, Amazon i eBay
2005 Sprzedaż laptopów po raz pierwszy przewyższyła sprzedaż komputerów stacjonarnych Platforma Intel Centrino, zintegrowana z energooszczędnymi procesorami
2007 Wzrost popularności netbooków Pojawienie się netbooków opartych na procesorach Intel Atom
2011 Ultrabook Koncepcja ultrabooka, laptop kontra tablet
2018 Smartfon Zastąpiły inne urządzenia, stając się głównym narzędziem mobilnej pracy

Powyższa tabela wyraźnie pokazuje bardzo interesujące informacje! Wchodząc w lata 90., powitaliśmy premierę procesora Intel Pentium, eksplozję zastosowań internetu, narodziny Windows 98 oraz pojawienie się USB 1.1, netbooków i ultrabooków. Ta seria innowacji technologicznych wyznacza niezmienny trend w rozwoju komputerów — internet naprawdę wszedł do każdego domu.

W tym okresie procesory stały się jeszcze lżejsze, a pojawienie się USB 1.1 ułatwiło rozbudowę urządzeń peryferyjnych, co sprawiło, że podłączanie takich urządzeń jak myszy stało się proste. Rozwój internetu spowodował, że wielu konsumentów zaczęło korzystać z osobistych urządzeń komputerowych. Warto zauważyć, że rozwój PC pokazuje wyraźny trend: odchudzanie i przenośność. Wczesnym mikrokosmosem telefonu komórkowego był PDA.

Ultrabook - 2012

Komputer stacjonarny – 2000

Notebook - 2005

Notebook – 2005

Komputer stacjonarny - 2000

Ultrabook – 2012

Powyższe obrazy to symulacje generowane przez AI

Rewolucja PDA z lat 90. oferuje ciekawą perspektywę. Ze względu na ograniczony czas nie zagłębimy się tutaj w szczegóły. Jednak przegląd tej trajektorii może dostarczyć kluczowych analogii dla przyszłej ścieżki rozwoju AI PC lub AI NAS.

Rozmawiałem o tym z kolegami z Lenovo. Ich wczesne wejście na rynek obejmowało już przeglądarki. W 2000 roku Lenovo uruchomiło program, który ułatwiał dostęp do internetu przez modem, upraszczając konfigurację sieci i połączenia, co umożliwiło większej liczbie użytkowników dostęp do internetu. To pomogło im szybko zdobyć rynek. Potem nadeszła era komputerów markowych.

Jedną stałą w ewolucji komputerów PC jest przesunięcie w kierunku przenośności i smukłości, umożliwiające dostęp do świata cyfrowego w dowolnym czasie i miejscu. Innym trendem jest przejście od wczesnej ciężkiej produkcji do wieloscenariuszowego przenikania. W jakich branżach pionowych AI początkowo się skoncentruje? Kiedy osiągnie powszechne zastosowanie? To jest ściśle powiązane z podstawową mocą obliczeniową, formą urządzenia i dojrzałością systemu operacyjnego – wszystko to jest ze sobą powiązane. Widzimy, że druga połowa ery PC odzwierciedla tę wieloscenariuszową penetrację.

Dziś nowe zmienne, takie jak GPU, TPU i wbudowane NPU w RISC-V, napędzają ewolucję systemów, a te zmiany systemowe przenikną warstwę aplikacji. Gdy nadejdzie odpowiedni czas, pojawi się wiele interesujących natywnych aplikacji AI, które uczynią lokalnego Copilota jeszcze potężniejszym. Jednak w łańcuchu branżowym jest wiele kluczowych elementów, które wymagają dogłębnej analizy i obserwacji zmian kluczowych graczy.

Zmieniające się czynniki, niezmienne trendy

  • 1. Przenośność: Od ciężkich do przenośnych, niższe zużycie energii i lżejsze urządzenia – znacząco obniżające koszt wejścia w świat cyfrowy.
  • 2. Wieloscenariuszowość: Gry, rysowanie, programowanie i powiązane peryferia – znacząco rozszerzające granice zastosowań cyfrowych.

Co jest kluczem do ustanowienia nowej kategorii? Urządzenia specjalistyczne kontra urządzenia do ogólnych zastosowań komputerowych

W tym procesie zdałem sobie sprawę z ciekawego pytania: Jak dzisiejszy sprzęt AI o wielu formach wypada na tle rozwoju komputerów PC w przeszłości? Które innowacje urządzeń zostaną wchłonięte przez PC, a które nie? PC był wtedy tak dominujący, jak dziś smartfony, laptopy i chmura obliczeniowa. W jakich scenariuszach nastąpiło rozdzielenie między urządzeniami specjalistycznymi a ogólnego przeznaczenia, które ostatecznie nie zostały zastąpione przez jedno, zunifikowane urządzenie?

Odkryłem, że konsola do gier wprowadzona przez Nintendo w 1983 roku faktycznie używała tego samego układu co Apple I i II, ale stała się urządzeniem specjalistycznym. Do dziś zakup PS5 lub Xboxa opiera się na tej samej logice. Dlatego gdy pionowy scenariusz ma wystarczającą głębokość potrzeb obliczeniowych, wymagań systemowych i scenariuszy zastosowań, może utworzyć niezależną kategorię urządzeń specjalistycznych. PDA z 1999 roku jest kolejnym przykładem. Używał stosunkowo przestarzałych, niskomocowych urządzeń, aby sprostać potrzebie osobistego asystenta cyfrowego. Chociaż PDA w tamtym czasie nie był jeszcze telefonem, a jedynie tanim narzędziem do planowania i zarządzania kontaktami, był znacznie tańszy niż PC i zajmował mały ekosystem urządzeń przenośnych, co można uznać za poprzednika telefonu komórkowego. Nie został jednak całkowicie zastąpiony przez późniejsze laptopy; zamiast tego rozwój telefonów komórkowych go przewyższył.

Czy między 1980 a 2000 rokiem pojawiło się jedno, zunifikowane urządzenie obliczeniowe w branży komputerowej? Słowem kluczowym jest „głębokość scenariusza”.

NES-Console-Set.png

NES – 1983

MOS Technology 6502

PDA - 1999

PDA – 1999

Motorola DragonBall 16 MHz

Granica między urządzeniami specjalistycznymi a ogólnego przeznaczenia skłania nas do refleksji: które z dzisiejszych inteligentnych urządzeń AI zostaną pochłonięte przez telefony AI, a które niezależnie rozwiną się w nowe kategorie, takie jak zabawki AI? Pod względem głębokości scenariuszy i inwestycji w zasoby, możemy użyć konsol do gier i PDA jako analogii do głębszych przemyśleń.

Na marginesie, wcześniejsze 8-bitowe procesory miały wydajność obliczeniową nieporównywalną z dzisiejszymi procesorami ARM; były porównywalne do kontrolera wyświetlacza w twojej domowej lodówce lub mikrofalówce. Komputer z 1980 roku był zasadniczo na poziomie obliczeniowym twojej lodówki. Chodzi o to, że patrząc wstecz, nie był tak potężny, jak mogłoby się wydawać, ale położył fundamenty pod całą branżę PC i rozwój internetu.

PDA kontra PC – moc obliczeniowa, koszt, zużycie energii, scenariusze zastosowań i interakcja człowiek-komputer
Wymiar porównawczy PDA PC w 1999 roku
Moc obliczeniowa Procesor o niskiej wydajności (np. Motorola DragonBall 16 MHz), 2-16 MB RAM, ograniczona przestrzeń dyskowa; słabe możliwości graficzne i multimedialne. Wydajny procesor (np. Intel Pentium III 500 MHz); 64-256 MB RAM, 10-20 GB pojemności dysku twardego; zaawansowane możliwości graficzne i multimedialne.
Koszt Zakres cen: 200–600 USD;
Głównie do zarządzania informacjami osobistymi (PIM), wysoka opłacalność.
Zakres cen: 1000–2000 USD;
Zapewnia kompleksowe funkcje obliczeniowe, szeroki zakres zastosowań, wysoką opłacalność.
Zużycie energii Niskie zużycie energii, zasilane baterią;
Długi czas pracy na baterii, zużycie energii od kilkuset miliwatów do kilku watów.
Wysokie zużycie energii, zwykle 100-300 watów;
Wymaga ciągłego zasilania, słaba przenośność.
Scenariusze zastosowań Zarządzanie harmonogramem, kontaktami, listami zadań;
Proste przetwarzanie tekstu, notatki, e-maile; podkreśla przenośność i natychmiastowość.
Praca biurowa (edytory tekstu, arkusze kalkulacyjne);
Rozrywka (gry, muzyka, filmy);
Przeglądanie internetu i komunikacja, rozwój oprogramowania, projektowanie graficzne itp.
Przenośność Mały rozmiar, lekki; łatwy do przenoszenia i używania w dowolnym miejscu i czasie. Duży rozmiar, duża waga; do użytku w stałym miejscu, trudny do przenoszenia.

Dzisiejszy AI PC, aplikacje i nowe możliwości

Wracając do teraźniejszości, chociaż elementy łańcucha przemysłowego się zmieniły, to co pozostaje niezmienne, to ludzki popyt na przechowywanie, produkcję i rozpowszechnianie danych. Na poziomie abstrakcyjnym potrzeby ludzi przesuwają się od operacji GUI do potrzeby konkurenta lub inteligentnego agenta, który automatycznie wykona kod lub zadania. Co pozostaje stałe, to potrzeba pozyskiwania i przechowywania informacji. Dzięki wdrożeniu Copilota twórcy mogą wprowadzić pewien kontekst i pozwolić maszynie pomóc im tworzyć kreatywne skrypty lub zrozumieć, co robią ich rówieśnicy.

Na przykład firma może użyć agenta do śledzenia wszystkich istotnych innowacji branżowych w czasie rzeczywistym i automatycznie generować cotygodniowe raporty. Te sposoby przechowywania i pozyskiwania danych produkcyjnych staną się mądrzejsze i bardziej inteligentne. Nośnikiem tego z pewnością będzie coś innego niż tradycyjny komputer PC; będzie to urządzenie obliczeniowe działające zawsze i w czasie rzeczywistym. W przeszłości ludzie musieli używać myszy i GUI, aby być produktywni; ale gdy inteligencja jest bezpośrednio wbudowana w urządzenie obliczeniowe, może działać samodzielnie. Oznacza to, że interakcja człowiek-komputer nie musi już opierać się na myszy i ekranie. Możesz zlecić mu zadanie, a ono je wykona bezpośrednio.

A proces osiągania tego wszystkiego ujawnia wzorzec, który można dostrzec w mikrokosmosie ostatnich 40 lat. Dlatego te podstawowe wymagania sceny są spójne! Nowa produktywność napędzana przez GPT nadal będzie zdominowana przez scenariusze produktywności na wczesnym etapie, podobnie jak Lotus 1-2-3 w erze DOS! Możemy budować na tym fundamencie, dodawać nowe zmienne produkcyjne i znajdować możliwe wczesne scenariusze zastosowań. W połączeniu z wcześniej wspomnianym przemysłem gier, przetwarzaniem obrazów oraz metodami produkcji, pozyskiwania i rozpowszechniania danych, możemy teoretycznie badać wszystkie możliwości.

Cyfryzacja -> Inteligentyzacja

Retencja: Maszyna pozyskuje informacje, dostarcza spersonalizowane rekomendacje.

Produkcja: Modele uczestniczą w podejmowaniu decyzji i wspierają proces produkcji.

Dystrybucja: Maszyna automatycznie zarządza dystrybucją i rozpowszechnianiem.

Nowe czynniki produkcji

Teraz możemy dostrzec cztery nowe czynniki produkcji, które zaczynają się pojawiać: rozwój GPU i TPU, nowe modele systemów operacyjnych, prywatyzacja danych oraz ilość unikalnych danych użytkowników. Gdy te czynniki zostaną połączone, możemy być świadkami narodzin zupełnie nowego „zintegrowanego urządzenia obliczeniowo-magazynującego”. Jego pozycja różni się od telefonów komórkowych, laptopów, a nawet chmury publicznej. Postaram się jasno wymienić jego cechy w tabeli.

Dane prywatne

Duże modele

Moc obliczeniowa GPU/TPU

Aplikacje

Kobieta korzystająca z komputera.jpg

Ikona Ollama

Ilustrator GPU/TPU

Autor: Brian Kerrigan
Creative Commons Attribution-Share Alike 3.0 Unported

  • Dane prywatne: Wysokiej jakości zasoby danych własnych w organizacji lub dane prywatnie pozyskane przez maszyny są kluczowymi zasobami do trenowania i optymalizacji modeli AI.
  • Możliwości dużych modeli: Zdolność do rozumienia, generowania i wnioskowania, dostosowująca się do różnych zadań i scenariuszy.
  • Moc obliczeniowa GPU lub ASIC: Specjalistyczny sprzęt wysokiej wydajności do inferencji.
  • Aplikacje AI: Nowe aplikacje oparte na LLM, zintegrowane z różnymi scenariuszami.

Scenariusze i nośniki – jedna tabela

Porównanie Telefon komórkowy Chmura prywatna Chmura publiczna
Aplikacja AI Lekki, Copilot Prywatna zdolność inferencji, Agent OpenAI, Agent
Możliwości dużych modeli 3B 7B – 100B 405B
Wydajność obliczeniowa Chip mobilny, niskie zużycie energii
6W 20 TOPS
GPU / ASIC, średnio-wysoka wydajność
200W 200 TOPS
Wysokowydajny klaster, elastyczne skalowanie
System operacyjny Android, iOS
Wykonanie w czasie działania
Pełny dostęp do danych
Prywatny system operacyjny chmury
Wykonywanie zadań w czasie rzeczywistym
Pełny dostęp do danych
System specyficzny dla platformy chmurowej
Wykonywanie zadań w czasie rzeczywistym
Częściowa autoryzacja
Przechowywanie danych 2TB Skalowalna pojemność, setki TB Skalowalna pojemność
Żywotność baterii Zestaw baterii
12 godzin
Podłączony
♾️
Podłączony
♾️

Ze względu na ograniczenia żywotności baterii, obserwujemy, że obliczenia stają się coraz lżejsze, co doprowadziło do powstania dzisiejszych telefonów komórkowych i laptopów. Dlatego trajektoria rozwoju technologicznego zawsze zmierzała w kierunku przenośności i współpracy, które są długoterminowymi potrzebami ludzi. Podobnie jak rozwój e-commerce, ludzie dążą do wyższej jakości marek i lekkich doświadczeń, chcąc bardziej przenośnych baterii i telefonów. Jednak moc obliczeniowa i żywotność baterii są ograniczone przez limity zużycia energii i mocy, co ogranicza poziom inteligencji modeli, które mogą działać na urządzeniach, obecnie zazwyczaj na poziomie 3 miliardów parametrów.

Oznacza to, że gdy Windows lub następna generacja systemu Android będzie gotowa, prawdopodobnie będą oparte na modelach na poziomie 3B i Copilot, inspirując nową generację aplikacji AI, takich jak przeglądarki sterowane AI, narzędzia do odpowiadania na e-maile itp. Przestrzeń dla tych aplikacji jest ograniczona, ale nadal będą bardzo interesujące, ponieważ mogą uruchamiać tylko modele na poziomie 3B w tle. To etap, przez który nieuchronnie przejdą telefony i laptopy, ponieważ z perspektywy procesu krzemowego moc obliczeniowa AI na wat nie zmieni się szybko w sposób dramatyczny.

Z drugiej strony mamy czystą chmurę obliczeniową. Ale problem z chmurą jest taki: czy jesteś gotów przekazać swoje dane z platform takich jak Notion, Slack i Lark dostawcy chmury? Albo czy jesteś gotów dać jednemu dostawcy usług chmurowych pełny dostęp do swoich kont Taobao, WeChat i finansowych? To oczywiście wiąże się z ogromnym kosztem decyzyjnym na poziomie psychologicznym. Dlatego chmura będzie istnieć na najwyższym poziomie, dostarczając najbardziej inteligentne możliwości modeli przez wywołania API, przenikając i obejmując duże przedsiębiorstwa.

Jednak pośrodku pojawiła się okazja do stworzenia nowego systemu operacyjnego. Ten system operacyjny będzie działał jako nośnik dla inteligentnego agenta, uruchamianego na urządzeniu włączonym 24 godziny na dobę. Możesz wysyłać mu zadania ze swojego telefonu lub laptopa, a on będzie je automatycznie wykonywał w tle. Ma ogromną pojemność przechowywania danych, a ponieważ nie ma ograniczeń mocy obliczeniowej, może być wyposażony w GPU o mocy rzędu stu watów, zapewniając około 200 TOPS mocy obliczeniowej AI. Iteracja TPU i NPU jeszcze bardziej obniży koszty mocy obliczeniowej, podobnie jak ewolucja wczesnego układu 8088.

Na tej podstawie można zbudować model w czasie rzeczywistym, wystarczająco inteligentny, aby służyć każdemu. Odnosząc to do teraźniejszości, są to duże modele na poziomie 7B do 100B, które wszyscy wypuszczają, które po kwantyzacji mogą działać w całości na architekturze obliczeniowej 200 TOPS. Jeśli pojawi się odpowiednie wsparcie systemu operacyjnego, wyłoni się bogaty ekosystem aplikacji inteligentnych agentów. Te modele na poziomie systemowym są precyzyjnie dostrojone, często nazywamy je modelami edge. Chociaż łańcuch przemysłowy ma wiele elementów, to nowe urządzenie ma jasne pozycjonowanie. Podobnie jak laptop, który kupujesz, możesz zalogować się na różne konta, nie martwiąc się zbytnio o kwestie bezpieczeństwa danych, ponieważ to twoje osobiste urządzenie obliczeniowe. Jest na tyle inteligentne, by służyć ci 24 godziny na dobę.

Twórcy, inżynierowie i pracownicy wiedzy

Twórcy

Twórcy

Wolny strzelec

Wolni strzelcy

Programiści

Programiści

Pomijając innowacje front-endowe, takie jak okulary i słuchawki, na back-endzie bardzo prawdopodobne jest pojawienie się osobistego urządzenia komputerowego, które przejdzie od produktywności do użytku konsumenckiego. To urządzenie, które przechodzi od czystego przetwarzania do integracji przetwarzania i przechowywania. Dziś mobilność danych i współpraca są ulepszone, a zapotrzebowanie na moc obliczeniową rośnie. Urządzenie zintegrowane z przetwarzaniem i przechowywaniem staje się niezbędnym nośnikiem dla osobistego inteligentnego asystenta.

Początkowo takie urządzenia mogą koncentrować się na grupach takich jak twórcy, inżynierowie i pracownicy wiedzy, aby wejść na rynek. Zazwyczaj mają oni dużą ilość bogatych danych multimedialnych i potrzebę zarządzania zasobami oraz wymagają narzędzi produktywności, które odpowiadają na ich problemy związane z przechowywaniem i współpracą. To podobne do ścieżki penetracji wczesnych komputerów PC, skierowane do użytkowników gotowych zapłacić i mających silne zapotrzebowanie na produktywność, co pozwala wejść na to nowe pole walki.

ZimaCube – Prywatna chmura twórcy

Niedawno przeprowadziliśmy kolejne wywiady z licznymi twórcami i profesjonalistami z branży treści, odkrywając szerszy zakres scenariuszy zastosowań. W rzeczywistości ta kategoria ma bardzo długi pipeline. Podejście ZimaCube jest bardziej zbliżone do pionowej integracji Apple, i musimy przemyśleć, jak postępować na różnych etapach. Obecnie NAS (Network Attached Storage) służy jako nośnik dla AI. Ma swój własny proces iteracyjny. W tym procesie osiągamy komercjalizację poprzez pionową integrację prywatnych rozwiązań chmurowych twórców.

Sprzęt ZimaCube Interfejs oprogramowania ZimaCube

Sprzęt nie jest barierą, lecz punktem wyjścia; wymaga pewnej unikalności.

System i aplikacje służą scenariuszowi.

Sprzęt to punkt wyjścia; zaczyna się od sprzętu, ale wartość scenariusza tkwi w aplikacjach. Otwarta ekosystem aplikacji może pomóc nam wcześniej zaadaptować różne nowe aplikacje, takie jak Lotus 1-2-3. Nie musimy się spieszyć z inwestowaniem dużych zasobów w rozwój aplikacji; zamiast tego powinniśmy zbudować platformę i promować ją poprzez działania oparte na społeczności.

System i aplikacje firm trzecich

Pozostań otwarty, włączaj popularne aplikacje z społeczności LocalLLM i buduj App Store z dokumentacją oraz unikalnymi standardami aplikacji.

Konieczność łączenia systemów i społeczności w globalnym kontekście biznesowym

Jednak produkty hybrydowe sprzętowo-programowe są rzeczywiście trudne do stworzenia. W dzisiejszych Chinach wiele innowacyjnych firm wymaga podwójnych zdolności. Pod względem zdolności organizacyjnych z jednej strony muszą stosować podejście „waterfall” do zarządzania sprzętem i procesów produkcyjnych, aby kontrolować koszty i ryzyko sprzętu; z drugiej strony muszą budować zwinne, iteracyjne podejście do aktualizacji systemów oprogramowania co tydzień lub co miesiąc.

Społeczności mogą być doskonałym narzędziem do przekazywania globalnych potrzeb użytkowników i informacji zwrotnych do naszych systemów oprogramowania. Sam sprzęt może nie wymagać częstych aktualizacji. Jeśli sprzedajesz powerbank, oceny na Amazonie i zarządzanie waterfall mogą uzupełnić definicję produktu i roczny cykl sprzedaży. Jednak dziś jest niewiele nisz dla kreatywnych firm opierających się wyłącznie na dostawie sprzętu. Większość kategorii opartych na efektach skali jest zdominowana przez gigantów, a nie ma nowych struktur ruchu, które mogłyby szybko rozszerzyć rynek.

Uniwersalne wyzwanie: wezwanie dla następnej generacji twórców platform

Historia pokazuje, że każda era obliczeniowa jest ostatecznie definiowana przez jedną lub kilka dominujących platform. Dziś budowanie tej nowej platformy to wspólna szansa i wyzwanie dla wszystkich innowatorów na świecie. Wymaga to bezprecedensowych i kompleksowych zdolności przekraczających granice:

Głęboka integracja sprzętu i oprogramowania: Wymaga to doskonałego połączenia rygoru „waterfall” w rozwoju sprzętu z „zwinnością” iteracji oprogramowania. Udana innowacja to już nie tylko sprzęt czy oprogramowanie, lecz bezproblemowo zintegrowany „produkt hybrydowy”.

Wspólne budowanie ekosystemów i społeczności: Tak jak Homebrew Computer Club zapoczątkował rewolucję PC, dzisiejsze społeczności open-source (jak LocalLLM) są kolebką następnej generacji „killer apps”. Zamknięty system może wygrać na chwilę, ale tylko otwarty ekosystem może wygrać przyszłość.

Dlatego ostateczna lekcja z lat 80. nie dotyczy geografii, lecz wizji. Zwycięzcy tamtej ery wygrali nie dlatego, że byli w Dolinie Krzemowej, lecz dlatego, że skutecznie zintegrowali chipy, systemy i aplikacje w platformę, która dała ludziom moc i zapoczątkowała nową erę.

Dziś scena jest gotowa. Dla przedsiębiorców i inwestorów na całym świecie prawdziwe pytanie nie brzmi „gdzie” innowować, lecz „jak” skutecznie zorganizować nowe czynniki produkcji — prywatne dane, modele AI i dostępne moce obliczeniowe — w nową, zorientowaną na człowieka platformę, która uwolni kreatywność. To nie jest solowy występ żadnego kraju czy regionu, lecz globalne przedsięwzięcie, które dotyczy nas wszystkich i ma na celu przekształcenie przyszłości obliczeń.

Centrum Kampanii Zima

Więcej do przeczytania

Get More Builds Like This

Stay in the Loop

Get updates from Zima - new products, exclusive deals, and real builds from the community.

Stay in the Loop preferences

We respect your inbox. Unsubscribe anytime.