Historia komputerów osobistych i sztuczna inteligencja: przewidywanie – Zima Store Online Przejdź do treści
Zima Store OnlineZima Store Online
Historia komputerów osobistych i sztuczna inteligencja: przewidywanie przyszłości sprzętu brzegowego

Historia komputerów osobistych i sztuczna inteligencja: przewidywanie przyszłości sprzętu brzegowego

Eva Wong jest Technical Writer oraz stałym majsterkowiczem w ZimaSpace. Pasjonatka technologii od zawsze, z zamiłowaniem do homelabów i oprogramowania open-source, specjalizuje się w tłumaczeniu skomplikowanych koncepcji technicznych na przystępne, praktyczne przewodniki. Eva wierzy, że samodzielne hostowanie powinno być zabawą, a nie czymś onieśmielającym. Poprzez swoje tutoriale umożliwia społeczności demistyfikację konfiguracji sprzętowych, od budowy pierwszego NAS-a po opanowanie kontenerów Docker.

Ten materiał pochodzi z sesji dzielenia się wiedzą IceWhale Technology w ramach FreeS Fund. Ma na celu przegląd kluczowych przemian, trendów rozwojowych, ważnych wydarzeń oraz stałych potrzeb konsumentów w branży PC Doliny Krzemowej w latach 80. Artykuł jest dość obszerny, obejmuje stan chipów w latach 80., początek i penetrację PC, zmiany w systemach DOS i Windows 1.0 w latach 1980-1990, wczesne killer apps dla PC oraz scenariusze zimnego startu. Mamy nadzieję, że przeczytasz go cierpliwie, dążąc do zainspirowania Twoich decyzji inwestycyjnych i innowacji produktowych w sprzęcie i aplikacjach AI.

Cytując Raya Dalio z Bridgewater Associates:

Idea, że historia ludzkości ma powtarzające się wzorce, to po prostu rzeczywistość. Może „cykl” nie jest odpowiednim słowem na to, być może powinno to być wzorem, ale myślę, że oba opisują ten proces.

—— Ray Dalio

Wzrost PC, proces informatyzacji i cztery kluczowe elementy

Muzeum Historii Komputerów, Dolina Krzemowa lat 80.

Apple I – 1976

Apple I – 1976

$666

Autor: The wub
Licencja: Creative Commons Uznanie Autorstwa-Na Tych Samych Warunkach 4.0

Apple II – 1977

Apple II – 1977

MOS Technology 6502, 8-bit, kolor, 1200$+, 8 slotów rozszerzeń

Autor: Rama
Licencja: CC BY 2.0

IBM PC - 1981

IBM PC – 1981

Intel 8088, 16-bit, 16 MHz, 1500$

Autor: Rama & Musée Bolo
Licencja: CC BY-SA 2.0 fr

Commodore 64 - 1982

Commodore 64 – 1982

595$ ->299$

Autor: Bill Bertram
Licencja: Creative Commons Uznanie Autorstwa-Na Tych Samych Warunkach 2.5

Dziś, gdy OpenAI, Google i Microsoft definiują „erę inteligencji” opartą na dużych modelach, cofnijmy się najpierw do wczesnej „ery informacji” zbudowanej przez narodziny PC w 1976 roku. To był moment narodzin Apple I. Ten komputer został wprowadzony przez Steve’a Jobsa i Steve’a Wozniaka w społeczności geeków zwanej Homebrew Computer Club, w cenie 600 dolarów. Wydanie Apple I w klubie było podobne do dzisiejszych projektów crowdfundingowych na Kickstarterze. Był skierowany wyłącznie do geeków, wymagał ręcznego składania części i był sprzedawany jako zestaw... wczesna sprzedaż wyniosła nieco ponad 200 sztuk. Jednak ten produkt położył fundamenty pod Apple, pomagając Jobsowi i jego zespołowi zgromadzić pierwszą grupę użytkowników startowych.

Wkrótce potem, w 1977 roku, Apple wypuściło Apple II. Ta generacja była nie tylko bardziej dopracowana pod względem wyglądu, dodając kolorowy wyświetlacz, ale także zawierała sloty rozszerzeń i zintegrowaną obudowę, co ułatwiało geekom rozbudowę i samodzielne modyfikacje. Jednak inne kluczowe specyfikacje nie zmieniły się znacząco. Wydanie Apple II było kamieniem milowym; cena wynosiła 1250 dolarów, znacznie poniżej drogich komputerów komercyjnych tamtych czasów.

Cztery lata później, IBM, podobno pod presją rynku, wysłał szczupły zespół 12 osób, aby rozpocząć projekt o kryptonimie „Project Chess”, potwierdzając swoją pozycję lidera branży. Jako wiodące przedsiębiorstwo, naturalnie musieli zrobić mocne wrażenie. Wprowadzili IBM PC, oparty na procesorze Intela, i przyjęli otwartą architekturę sprzętową. To otworzyło drzwi dla innych producentów do tworzenia kompatybilnych urządzeń, co z kolei sprzyjało powstaniu ekosystemu Wintel. Otwartość strategii IBM szybko doprowadziła do akceptacji ich standardu PC przez rynek.

Commodore 64 w 1982 roku to kolejna firma warta odnotowania, chociaż nie zaszła zbyt daleko. W swoich początkach trafnie przewidziała kilka kluczowych strategii. Oferowała wiodącą grafikę i dźwięk w konkurencyjnej cenie 595 dolarów, co spotkało się z dobrym przyjęciem. Jednocześnie Commodore priorytetowo traktowało ekspansję na rynek europejski, z ponad połową przychodów pochodzących z Europy. Wykorzystując lokalne sieci dystrybucji i reklamę, szybko zdobyła popularność, kładąc solidne podstawy swojej obecności na globalnym rynku komputerów domowych.

Tak jak dziś istnieje wiele podkanałów na Reddicie dla dużych modeli takich jak ChatGPT, LocalLLM i Stable Diffusion, w początkowych dniach każdej ery wiele utalentowanych osób i pomysłów pochodziło z społeczności online i offline. To nie jest tak obce dzisiejszemu światu, ponieważ wielu gigantów technologicznych spędzało czas na forach BBS, gdy internet dopiero się pojawił, zanim rozproszyli się po różnych branżach. Dziś społeczność wokół dużych modeli na czołowych uniwersytetach ma podobne cechy.

Ale co jest jeszcze ciekawsze, to fakt, że takie kluby mają tendencję do stopniowego zanikania w ciągu dekady. Schemat jest taki, że gdy pojawia się nowa kategoria, przyciąga grupę entuzjastów bardzo aktywnych w społeczności, proponujących różne pomysły, a nawet tworzących wczesne prototypy produktów. Gdy duże firmy wkraczają na scenę, a innowacje przesuwają się w stronę komercjalizacji, wczesne, oddolne pomysły zrodzone w społeczności stopniowo dojrzewają i nabierają treści. Jednak te społeczności często mają „przeznaczenie”: są niezwykle prosperujące w okresach aktywnej innowacji, ale ich popularność maleje wraz z dojrzewaniem branży i pojawianiem się gigantów. Homebrew Computer Club, jak również rozwój dzisiejszego przemysłu modeli, druku 3D i quadkopterów, podążają za tym wzorcem „boom i upadek”.

Ic-photo-Intel--P8088--(8088-CPU)-v2.png

Autor: ZyMOS

Creative Commons Attribution-Share Alike 4.0

Intel 8088 to klasyczny procesor wydany w 1979 roku, używany w IBM PC.

  • 8-bitowa magistrala danych, 16-bitowe przetwarzanie wewnętrzne: Chociaż wewnętrznie był 16-bitowy, używał 8-bitowej zewnętrznej magistrali danych, co obniżało koszty sprzętu.
  • Prędkość zegara 4,77 MHz: Umiarkowana prędkość przetwarzania, wystarczająca do obsługi edytorów tekstu i prostych gier z tamtych czasów.
  • Obsługuje 1 MB pamięci: Może uzyskać dostęp do maksymalnie 1 MB pamięci.
  • Zgodny z zestawem instrukcji x86: Zgodny z późniejszymi procesorami serii x86, stanowiąc podstawę standaryzacji PC.
  • Obudowa 40-pinowa, niskie zużycie energii: Mały rozmiar i niskie zużycie energii, odpowiednie do potrzeb komputerów stacjonarnych tamtego czasu.

Po drugie, spójrzmy na układy z tamtego czasu, które stanowiły fundament kategorii PC. Definicja PC jest nierozerwalnie związana z ciągłym spadkiem kosztów układów i „wystarczającą” mocą obliczeniową. Bycie odpowiednim do użytku i przystępnym cenowo pozwoliło PC wejść na rynek masowy. Intel 8088 jest typowym przykładem. 8088 dostosował szerokość magistrali w porównaniu do swojego poprzednika, 8086, co skutkowało niższymi kosztami, co pozwoliło mu stać się rdzeniem IBM PC.

W tamtym czasie główny sprzęt komputerowy IBM dla zastosowań komercyjnych i wojskowych był bardzo duży i potężny, ale całkowicie „przesadzony” dla rynku osobistego. Z kolei 8088 był krokiem w dół, oferując zrównoważoną moc obliczeniową przy niższych kosztach, podobnie jak dzisiejsze urządzenia NAS (Network Attached Storage), które upraszczają serwery komercyjne do rozmiaru i mocy obliczeniowej odpowiedniej do użytku domowego, pozwalając jednostkom mieć własne małe rozwiązania komputerowe.

Jeśli NVIDIA H200 jest dziś liderem komercyjnym, kto rozwija układy ASIC, które wprowadzą modele do różnych terminali obliczeniowych, takich jak AI PC czy AI NAS?

Ewolucja systemów – Każde pokolenie chwali się swoim „przyjaznym interfejsem użytkownika”

Tak jak dziś każda firma twierdzi, że ma „inteligentny system”

Apple II Dos

Autor: Vadim Rumyantsev
domena publiczna

Apple II DOS – 1978

Entuzjaści technologii, małe firmy

Interfejs wiersza poleceń

Xerox Star OS – 1981

Użytkownicy korporacyjni

Pierwszy, który wprowadził GUI; luksusowy produkt w cenie 16 595 dolarów…

Apple Macintosh Classic

Autor: Eric Chan z Hongkongu
Creative Commons Attribution 2.0

Macintosh – 1984

Masowi konsumenci, profesjonaliści kreatywni, edukacja

Powszechne przyjęcie GUI

DOS – System operacyjny dysku

Po trzecie, spójrzmy na wczesne systemy operacyjne. Podobnie jak dziś ludzie „dostrajają” modele, były to zasadniczo rzeczy, którymi mogli bawić się tylko inżynierowie. Około 1978-79 roku tylko około dziesięciu tysięcy inżynierów w Dolinie Krzemowej pracowało z systemami DOS, które były całkowicie oparte na wierszu poleceń bez graficznego interfejsu. Na tym etapie systemy operacyjne były dalekie od przenikania do codziennego użytku przedsiębiorstw i ogółu społeczeństwa, podobnie jak dzisiejsze modele AI, które nadal są w rękach grupy geeków technologicznych.

Dopiero w 1981 roku, wraz z premierą pierwszego PC IBM, system DOS zaczął stopniowo zyskiwać większą uwagę, ale nadal był to system wiersza poleceń bez GUI. Dlatego scenariusze obliczeniowe w tamtym czasie były bardzo podobne do dzisiejszej AI: wymagały dużej liczby geeków technologicznych i inżynierów, którzy wielokrotnie dostrajali i integrowali system, aby osiągnąć konkretne zastosowania. To, co naprawdę wprowadziło PC i systemy operacyjne na poziom przedsiębiorstw, to graficzny interfejs użytkownika (GUI) Xerox Star, który zapoczątkował pierwszą prawdziwą falę rozszerzenia użytkowników.

W 1984 roku system graficznego interfejsu uruchomiony przez Apple jeszcze bardziej rozszerzył bazę użytkowników na dziedziny kreatywne, edukacyjne i inne profesjonalne, powoli otwierając masowe zastosowanie systemów operacyjnych. Jednak w tym okresie systemy DOS i GUI współistniały przez długi czas, a firmy utrzymywały dwa oddzielne systemy, aby zaspokoić różne potrzeby.

Ekosystem aplikacji z wczesnych lat 80., które dziś nazywamy „killer apps”

Lotus 1-2-3 – 1982

Lotus-123-3.0-MSDOS

Autor: Odacir Blanco
Domena publiczna
Finanse korporacyjne, małe i średnie przedsiębiorstwa

WordPerfect – 1985

Wordperfect-5.1-dos

Licencja: Domena publiczna
Prawo i nauka

Po czwarte, ekosystem aplikacji, który stopniowo rozwijał się wraz z możliwościami systemu i sprzętu! Oto kilka reprezentatywnych aplikacji i przegląd ich drogi penetracji w rewolucji produktywności na PC.

W tych wczesnych systemach interfejsu użytkownika rynek nie osiągnął jeszcze skali konsumenckiej i składał się głównie ze scenariuszy produktywności. Niektóre aplikacje zaczęły się wyróżniać, takie jak Lotus 1-2-3, słynne oprogramowanie do zarządzania finansami i wczesna wersja Excela. WordPerfect, wydany w 1985 roku, był głównie używany w dziedzinie prawa i nauki. Jednak te operacje edycyjne nie były wykonywane za pomocą dopracowanego graficznego interfejsu, lecz opierały się na linii poleceń DOS. Pracownicy wiedzy musieli nauczyć się odpowiednich operacji w wierszu poleceń, aby wykonać zadania edycyjne.

W dziedzinie badań akademickich wykorzystanie PC do digitalizacji dokumentów i współpracy przyniosło ogromne usprawnienia efektywności. Dlatego do 1988 roku wskaźnik penetracji PC w środowisku akademickim był bardzo wysoki w scenariuszach takich jak transfer plików, komunikacja e-mailowa i edycja tekstu. Jednak dopiero w 1989 roku, wraz z wzrostem mocy obliczeniowej CPU i możliwości przetwarzania GUI, zaczęło to mieć duży wpływ na branże takie jak poligrafia i projektowanie reklam. Jest to nieco podobne do dzisiejszej sytuacji; chociaż OpenAI wypuściło model świata wideo, nie został on szybko zastosowany w praktycznych scenariuszach, ponieważ dojrzewanie zasobów obliczeniowych i technologii GUI wymaga czasu.

Powyższe obrazy to symulacje generowane przez AI

CorelDRAW – 1989

CorelDraw -1989

Graficy, przemysł poligraficzny

Quicken – 1984

Quicken - 1984

Użytkownicy indywidualni, małe firmy

Flight Simulator – 1985

Flight Simulator - 1985

Entuzjaści lotnictwa, studenci

W początkowych dniach nowej platformy komputerowej innowacje aplikacyjne, które zagłębiają się w pionowe scenariusze, nadal mają ogromną wartość dla branży. Jeśli dokonamy analogii do teraźniejszości, wierzę, że w przyszłym roku, gdy moc obliczeniowa TPU w PC będzie gotowa, a Windows jako standardowy pośredni system operacyjny będzie mógł zapewnić potężną moc obliczeniową AI dla aplikacji wyższego poziomu, pojawi się nowa fala aplikacji PC związanych z AI, podobnych do Copilota, działających bezpośrednio na krawędzi.

W tym kontekście Quicken jeszcze bardziej pogłębił doświadczenia w scenariuszach biznesowych opartych na Lotusie. Ulepszył interfejs interakcji i konfigurowalność oryginalnego systemu DOS, rozwijając się głęboko pod kątem potrzeb zarządzania finansami i małych firm. Dało to tym wczesnym aplikacjom dobrą przestrzeń do przetrwania.

Jednak ceny tych aplikacji były dość wysokie. Na przykład Lotus 1-2-3 kosztował prawie 500 dolarów, co było bardzo drogim rozwiązaniem w 1985 roku. Wskazuje to, że wczesne scenariusze produktywności były głównie napędzane przez konsumentów o dużej sile nabywczej.

Ponadto pojawiły się gry i symulatory dla entuzjastów, takie jak „Flight Simulator” na Windows, które oferowały bardziej zróżnicowane i lekkie funkcje produktu, przyciągając nowych użytkowników lubiących eksplorować i eksperymentować. Dlatego możemy zauważyć, że wczesny ekosystem PC został zbudowany przez połączenie zaawansowanych narzędzi produktywności, penetracji małych i średnich przedsiębiorstw, badań przemysłowych i akademickich oraz kilku interesujących przełomowych aplikacji. Jednak proces ten trwał bardzo długo, ponieważ podstawowe technologie DOS i GUI rozwijały się stosunkowo powoli.

Konkretnie, dostawcy aplikacji tacy jak Lotus odegrali kluczową rolę. Nie byli dostawcami systemu operacyjnego; ci ostatni skupiali się na budowaniu niezawodności, harmonogramowania zasobów i skalowalności systemu. W 8-9 letnim okresie od 1982 do 1990 roku Lotus wykorzystał okazję, aby wypełnić lukę na rynku. Apple i Microsoft nie zaczęli wydawać swoich kompletnych pakietów Office aż do lat 90., dając tym aplikacjom systemowym przewagę rynkową 7-8 lat. Wykorzystali popularność IBM PC i systemu DOS, aby szybko wejść na rynek użytkowników korporacyjnych, finansowych i księgowych. Użytkownicy ci mieli silne potrzeby przetwarzania danych, a połączenie nowych komputerów i oprogramowania Lotus osiągnęło pełne przenikanie w tych scenariuszach.

Windows 1.0 i „szalona” kampania sprzedażowa Ballmera

Wracając do 1985 roku, udział Lotus na rynku przekroczył już 50%. Wobec wysokiej ceny 495 USD, łatwo zrozumieć, dlaczego Steve Ballmer, promując Windows 1.0, podkreślał: „Oferujemy grę w szachy, arkusz kalkulacyjny i przetwarzanie obrazów za jedyne 99 USD, a nie 500 czy 600.” W tamtym czasie cena oprogramowania była bardzo atrakcyjnym punktem sprzedaży w marketingu. Sprzedając system operacyjny, specjalistyczne oprogramowanie graficzne, takie jak CorelDRAW, nieco podobne do późniejszego Photoshopa, zapewniało użytkownikom profesjonalne funkcje przetwarzania obrazów.

Lotus 1-2-3

Firma: Lotus Development Corporation

Tło: Lotus 1-2-3 został opracowany przez Lotus Development Corporation, założoną przez Mitcha Kapora w 1982 roku. Lotus 1-2-3 był pierwszym oprogramowaniem dla IBM PC oferującym zintegrowane funkcje arkusza kalkulacyjnego, grafiki i zarządzania bazą danych, szybko stając się jednym z najpopularniejszych programów aplikacyjnych, zwłaszcza wśród użytkowników biznesowych i korporacyjnych.

Profil użytkownika: Głównymi użytkownikami byli użytkownicy korporacyjni, zwłaszcza analitycy finansowi, księgowi i menedżerowie. Użytkownicy ci zazwyczaj posiadali pewien poziom wiedzy technicznej i byli bardzo wrażliwi na dane.

Główne zastosowania: Używany do zarządzania danymi, złożonego modelowania finansowego, budżetowania, generowania raportów oraz różnych innych form analizy danych. Potężne funkcje Lotus 1-2-3 uczyniły go najlepszym wyborem do arkuszy kalkulacyjnych w przedsiębiorstwach.

1983: Lotus 1-2-3 został wprowadzony na rynek i szybko stał się liderem, zwłaszcza na kompatybilnych z IBM PC.

1985: Udział w rynku przekroczył 50%, przy cenie 495 USD.

CorelDRAW

Firma: Corel Corporation

Tło: Pod koniec lat 80., wraz z popularyzacją graficznych interfejsów użytkownika (GUI) i komputerów osobistych (PC), rynki projektowania graficznego i publikacji desktopowej szybko się rozwijały. Tradycyjne procesy projektowe (ręczne rysowanie i skład tekstu) zaczęły przechodzić na formę cyfrową.

Profil użytkownika: Mieli pewną wiedzę na temat komputerowego projektowania graficznego, ale niekoniecznie byli ekspertami technicznymi.

  • Profesjonalni projektanci i ilustratorzy: Potrzebowali precyzyjnych narzędzi do rysunku wektorowego do tworzenia ilustracji, logo i innych prac projektowych.
  • Specjaliści ds. publikacji desktopowej (DTP): Potrzebowali łączyć tekst i grafikę, aby tworzyć książki, magazyny, materiały promocyjne itp.
  • Małe i średnie przedsiębiorstwa oraz freelancerzy: Korzystali z CorelDRAW do tworzenia logo firm, reklam i materiałów marketingowych bez potrzeby drogich dedykowanych urządzeń i oprogramowania do projektowania.

1989: CorelDRAW 1.0 był pierwszym oprogramowaniem łączącym projektowanie grafiki wektorowej i funkcje publikacji desktopowej, a jego premiera zapoczątkowała rewolucję w dziedzinie projektowania graficznego. Ta wersja obsługiwała funkcje takie jak wiele stron, edycja krzywych i edycja tekstu.

Od nabytego MS-DOS 1.0 do Windows + Office

Czas Tytuł Szczegóły
1981 MS-DOS 1.0 Potwierdzone partnerstwo z IBM
1982 MS-DOS 1.25 Licencjonowany dla kompatybilnych marek zewnętrznych
1983 MS-DOS 2.0
Microsoft Word
Ulepszona funkcjonalność systemu
Wsparcie dla dysków twardych i struktur katalogów
1985 Windows 1.0 Dodano graficzny interfejs na bazie Microsoft MS-DOS
1987 Windows 2.0 Lepsze wsparcie grafiki i wydajność
Nakładające się okna i skróty klawiszowe
1988 MS-DOS 4.0 Wprowadzono graficzny interfejs użytkownika DOS Shell
1989 Microsoft Office Zapewniono integrację automatyzacji biurowej dla Windows

Wzrost Microsoftu być może nie wynikał z jego początkowych produktów, lecz z doskonałej strategii biznesowej. Już na wczesnym etapie Microsoft wykazał się bystrością biznesową, przejęciem systemu operacyjnego firm trzecich o nazwie 86-DOS [tak, kupili go…]. Ten ruch uczynił ich ważnym partnerem dla IBM. Co zaskakujące, Microsoft szybko rozszerzył działalność w drugim roku, współpracując z innymi producentami sprzętu, podobnie jak dziś po tym, jak Tesla zdefiniowała standardy branżowe, wiele firm poszło w ich ślady, napędzając cały ekosystem ODM i ustanawiając standardy AIPC.

Po tym, jak Microsoft zdefiniował standard, producenci sprzętu zaczęli działać. Wracając do dzisiejszego toru AI PC i aplikacji edge AI, zobaczymy na rynku wiele laptopów z mocą obliczeniową AI na poziomie 40 TOPS, a Qualcomm podejmuje podobne działania. To wprowadza nowe zmienne: z jednej strony sprzęt jest ulepszany, a z drugiej podkreślona jest rola systemu operacyjnego w warstwie pośredniej. System operacyjny musi efektywnie przydzielać 40 TOPS zasobów obliczeniowych, aby sprostać potrzebom wielu aplikacji wyższej warstwy. Microsoft mocno inwestował w rozwój systemu operacyjnego, nie mając czasu na długą rywalizację z Lotus czy WordPerfect.

Nie było to aż do trzeciego roku, kiedy Microsoft zaczął naśladować WordPerfect [system absorbuje kluczowe aplikacje], i trwało to do 1989 roku. Przez osiem lat Microsoft umacniał swoje licencjonowanie systemu dla firm trzecich i zaczął samodzielnie sprzedawać Windows 1.0 w 1985 roku. Warto zauważyć, że Windows 1.0 został wydany pełne cztery lata po systemie GUI Xerox, co pokazuje długi proces rozwoju systemu operacyjnego. Wczesne Windows były głównie dołączane do urządzeń sprzętowych, a sprzedaż osiągnęła dziesiątki tysięcy sztuk w pierwszych dwóch-trzech latach, a łączna liczba wysyłek wyniosła pięć do sześciu milionów sztuk w ciągu ośmiu lat.

Rewolucja produktywności kontra każde gospodarstwo domowe

W tamtym czasie główny rynek komputerów PC nie ograniczał się do Ameryki Północnej; kraje rozwinięte w Europie również importowały te urządzenia drogą morską. Baza użytkowników koncentrowała się głównie na zaawansowanych scenariuszach produktywności. Nie było to aż do 1989 roku, kiedy zaczęły pojawiać się aplikacje takie jak przetwarzanie obrazów, że pojawiły się nowe zastosowania. Nawet po wprowadzeniu systemów GUI, nie weszły one od razu na masowy rynek konsumencki. Prawdziwe wejście do zwykłych gospodarstw domowych nastąpiło około 1994 roku, wraz z rozwojem przeglądarki Netscape i internetu, kiedy coraz więcej osób korzystających z komputerów w pracy zaczęło kupować urządzenia do swoich domów.

Ta ścieżka ewolucji technologicznej, od rewolucji produktywności do eksplozji konsumenckiej, jest wyraźnie widoczna w erze PC. Dziś informacje rozprzestrzeniają się szybko, a czy AI może wzmocnić każdy scenariusz konsumencki, wymaga jeszcze czasu na weryfikację. Na wczesnym etapie może być konieczne zwrócenie większej uwagi na zmiany po stronie produkcji i dostaw.

Kolejnym kluczowym czynnikiem jest ewolucja interakcji człowiek-komputer. Wprowadzenie myszy stworzyło nowy sposób interakcji człowiek-komputer, co znacznie wpłynęło na penetrację komputerów osobistych. Podobnie możemy spojrzeć na obecną strukturę, analizując trajektorię rozwoju Microsoftu. Jeśli dzisiejsze OpenAI weryfikuje możliwość istnienia systemu operacyjnego AI w chmurze, to na krawędzi, bez wsparcia systemu operacyjnego, aplikacje wyższego poziomu będą miały trudności z rozwojem. Gdy system operacyjny i sprzęt osiągną kluczowe przełomy, aplikacje końcowe mogą doświadczyć gwałtownego wzrostu.

Dziś komunikujemy się za pomocą języka naturalnego i strumieni wideo, a te nowe zmienne wpłyną również na scenariusze zastosowań AI. Krótko podsumowując, powodem, dla którego Microsoft od 1981 do 1989 roku rozwijał równolegle DOS i GUI, było to, że musieli być kompatybilni z dużą liczbą urządzeń sprzętowych. To również wyjaśnia, dlaczego Steve Jobs kiedyś patrzył z góry na system Windows, uważając go za skomplikowany i nieestetyczny. Jednak z perspektywy biznesowej Microsoft podjął stabilne kroki: od przejęcia kodu i uruchomienia GUI po wydanie Office osiem lat po Lotus, w każdym aspekcie umocnili swoją pozycję ekosystemu.

Spojrzenie na obecną architekturę Windows przez pryzmat Windows NT

Schemat architektury Windows NT z przetłumaczonymi komponentami

Schemat architektury Windows NT z przetłumaczonymi komponentami

  • Podsystemy trybu użytkownika: Kompatybilność aplikacji
  • Menedżer Windows i GDI: Interfejs użytkownika i zarządzanie oknami
  • Menedżer zasilania: Zarządza zasilaniem
  • Menedżer PnP: Menedżer urządzeń Plug and Play
  • Menedżer procesów: Zarządza procesami
  • VMM: Menedżer pamięci wirtualnej
  • Menedżer IPC: Komunikacja międzyprocesowa, np. przesyłanie wiadomości
  • Monitor odniesienia bezpieczeństwa: Autoryzacja i bezpieczeństwo
  • Menedżer I/O: Zarządza żądaniami wejścia/wyjścia dla urządzeń
  • Menedżer obiektów: Zapewnia zunifikowaną kontrolę i bezpieczeństwo dla obiektów takich jak pliki, procesy i urządzenia
  • Micro Kernel: Podstawowe funkcje systemu operacyjnego, komunikacja międzyprocesowa, zarządzanie wątkami
  • Sterowniki trybu jądra: Bezpośrednio współpracują ze sprzętem, zapewniając interfejsy sprzętowe dla systemu
  • HAL: Warstwa Abstrakcji Sprzętu, maskuje różnice między sprzętem

Podsumowanie Czterech Elementów – Widzenie Zmiennych i Stałych Potrzeb

Chipy, System, Aplikacje i Urządzenia

Pamięć masowa/Obliczenia

Chip

Sterownik

System

Interfejs systemu operacyjnego

Podstawa

Aplikacja

klasyczna aplikacja

Wartość dla użytkownika

Produkt

produkt końcowy

Pojazd

W tym procesie warto zwrócić uwagę na kilka kluczowych elementów. Pierwszym jest ewolucja jednostek przechowywania i obliczeń. Chociaż koszty wczesnych chipów i pamięci masowej spadły, nie zmniejszyły się znacząco, co wiąże się z postępem prawa Moore’a. Dziś wdrożenie edge computingu jest również możliwe, ponieważ rozwój technologiczny osiągnął pewien punkt krytyczny.

Po drugie, system operacyjny, jako ważne oprogramowanie pośredniczące, realizuje kluczowe zadania, takie jak zarządzanie zasobami i adaptacja urządzeń. Chociaż wczesne systemy nie były potężne, ich znaczenie było oczywiste.

Po trzecie, wczesne aplikacje-klucze mogły przynosić zyski, ale jeśli nie były rozwijane dogłębnie, mogły ostatecznie zostać zastąpione [to, co teraz często nazywa się scenariuszami pionowymi, wymagającymi głębokości]. Czy dostawcy aplikacji mogą zejść na poziom systemu operacyjnego, to nadal pytanie warte rozważenia.

Ostatecznie wartość jest przejmowana przez pojazd komercyjny. Na początku ludzie kupowali sprzęt jako pojazd, ale wraz z ustanowieniem platform systemowych znaczenie sprzętu stosunkowo zmalało. W erze, gdy „platforma jest królem”, system operacyjny nie tylko dzielił wartość, ale także pielęgnował bogaty ekosystem aplikacji. Zjawisko to zostało również potwierdzone w erze mobilnego internetu.

Możemy odwzorować te cztery elementy — sprzęt, system operacyjny, aplikacje i interakcję człowiek-komputer — na obecny rozwój AI. Po stronie podaży powinniśmy zastanowić się, dlaczego ludzie potrzebują komputerów i dlaczego potrzebują modeli AI. Niezmiennym zapotrzebowaniem jest efektywne i wygodne przechowywanie oraz edycja informacji. Każde pokolenie urządzeń obliczeniowych dąży do bardziej naturalnej i łatwiejszej interakcji człowiek-komputer, co jest wiecznym tematem.

Wreszcie, rozpowszechnianie i dzielenie się informacjami są również ważnymi czynnikami napędzającymi rozwój technologiczny. Od wczesnej poczty elektronicznej po późniejsze przeglądarki, ewolucja metod rozpowszechniania spełniła głęboko zakorzenione potrzeby ludzi w zakresie cyfryzacji. Dziś ogólnie wierzymy, że znajdujemy się w fali inteligentyzacji, podobnie jak w przeszłej rewolucji informacyjnej, i możemy używać wzorców historycznych do analogii i rozważań nad przyszłymi kierunkami.

  • Warstwa Podstawowa Technologii (Klucz do Przechowywania/Obliczeń): Rozwój podstawowych technologii sprzętowych, takich jak procesory (moc obliczeniowa) i pamięć masowa (nośniki danych).
  • Warstwa platformy: Podstawowa platforma PC, zapewniająca interfejsy ze sprzętem oraz środowisko uruchomieniowe dla aplikacji wyższej warstwy.
  • Warstwa aplikacji: Oprogramowanie aplikacyjne jest główną motywacją użytkowników do zakupu komputerów PC i ważnym czynnikiem przyciągającym użytkowników do danej platformy.
  • Środek transakcji: Produkty sprzętowe to fizyczne urządzenia, które użytkownicy końcowi kupują, dostępne do wyboru i zakupu przez użytkowników.

Popyt – cyfryzacja:

  • Przechowywanie: Wygodne medium do trwałego przechowywania informacji.
  • Produkcja: Stała potrzeba efektywności w przetwarzaniu tekstu, danych, obrazów i informacji w scenariuszach produktywności.
  • Dystrybucja: Efektywność współpracy.

Kluczowe wydarzenia i trendy po 1990 roku

Rok Wydarzenie Opis
1993 Wydanie procesora Intel Pentium Znacząco poprawiona wydajność i efektywność procesora
1998 Windows 98 i standard USB 1.1 Umożliwiono podłączanie urządzeń zewnętrznych w trybie plug-and-play
2000 Intel Pentium 4 Wysokowydajny komputer stacjonarny typu mainframe
2003 Eksplozja aplikacji internetowych MySpace i Facebook, Amazon i eBay
2005 Sprzedaż laptopów przewyższa sprzedaż komputerów stacjonarnych po raz pierwszy Platforma Intel Centrino, zintegrowana z procesorami o niskim poborze mocy
2007 Wzrost popularności netbooków Pojawiają się netbooki oparte na procesorach Intel Atom
2011 Ultrabook Koncepcja Ultrabooka, laptop kontra tablet
2018 Smartfon Zastąpił inne urządzenia, stając się głównym urządzeniem do mobilnych obliczeń

Powyższa tabela wyraźnie pokazuje bardzo interesujące informacje! Wchodząc w lata 90., powitaliśmy premierę procesora Intel Pentium, eksplozję aplikacji internetowych, narodziny Windows 98 oraz pojawienie się USB 1.1, netbooków i ultrabooków. Ta seria innowacji technologicznych wyznacza niezmienny trend w rozwoju komputerów — internet naprawdę wszedł do każdego domu.

W tym okresie procesory CPU stały się jeszcze lżejsze, a pojawienie się USB 1.1 ułatwiło rozbudowę peryferiów, co umożliwiło łatwe podłączanie urządzeń takich jak myszy. Wzrost popularności internetu spowodował, że wielu konsumentów zaczęło korzystać z osobistych urządzeń komputerowych. Warto zauważyć, że rozwój PC pokazuje wyraźny trend: odchudzanie i przenośność. Wczesnym mikrokosmosem telefonu komórkowego był PDA.

Ultrabook - 2012

Komputer stacjonarny – 2000

Notebook - 2005

Notebook – 2005

Komputer stacjonarny - 2000

Ultrabook – 2012

Powyższe obrazy to symulacje generowane przez AI

Rewolucja PDA z lat 90. oferuje ciekawą perspektywę. Czas jest ograniczony, więc nie będziemy się tutaj zagłębiać. Jednak przegląd tej trajektorii może dostarczyć kluczowych analogii dla przyszłej ścieżki iteracji AI PC lub AI NAS.

Rozmawiałem o tym z kolegami z Lenovo. Ich wczesna penetracja rynku obejmowała już przeglądarki. W 2000 roku Lenovo uruchomiło program, który ułatwił dostęp do internetu przez modem, upraszczając konfigurację sieci i połączenia, co umożliwiło większej liczbie użytkowników dostęp do internetu. Pomogło to szybko zdobyć rynek. Następnie nadeszła era komputerów markowych.

Jedną stałą w ewolucji komputerów PC jest przesunięcie w kierunku przenośności i smukłości, umożliwiające jednostkom dostęp do cyfrowego świata w dowolnym czasie i miejscu. Innym trendem jest przejście od wczesnej ciężkiej produkcji do penetracji wieloscenariuszowej. W jakich więc pionowych branżach AI początkowo się skoncentruje? Kiedy osiągnie powszechne zastosowanie? Jest to ściśle powiązane z podstawową mocą obliczeniową, formą urządzenia i dojrzałością systemu operacyjnego — wszystko to jest ze sobą powiązane. Widzimy, że druga połowa ery PC odzwierciedla tę penetrację wieloscenariuszową.

Dziś nowe zmienne, takie jak GPU, TPU i wbudowany NPU w RISC-V, napędzają ewolucję systemów, a te zmiany systemowe przenikną warstwę aplikacji. Gdy nadejdzie odpowiedni czas, pojawi się wiele interesujących aplikacji natywnych dla AI, które uczynią lokalnego Copilota jeszcze potężniejszym. Jednak w łańcuchu przemysłowym jest wiele kluczowych elementów, które wymagają dogłębnej analizy i obserwacji zmian w kluczowych graczach.

Zmieniające się czynniki, niezmienne trendy

  • 1. Przenośność: Od ciężkich do przenośnych, niższe zużycie energii i lżejsze urządzenia – co znacznie obniża koszty wejścia do cyfrowego świata.
  • 2. Wieloscenariuszowość: gry, rysowanie, programowanie i powiązane peryferia – znaczne rozszerzenie granic zastosowań cyfrowych.

Co jest kluczem do ustanowienia nowej kategorii? Urządzenia specjalistyczne kontra urządzenia obliczeniowe ogólnego przeznaczenia

W tym procesie zdałem sobie sprawę z ciekawego pytania: jak dzisiejszy wielofunkcyjny sprzęt AI wypada na tle rozwoju PC z przeszłości? Które innowacje urządzeń zostaną pochłonięte przez PC, a które nie? PC był wtedy tak dominujący, jak dziś smartfony, laptopy i chmura obliczeniowa. W jakich scenariuszach doszło do rozbieżności między urządzeniami specjalistycznymi a ogólnego przeznaczenia, które ostatecznie nie zostały zastąpione przez jedno, zunifikowane urządzenie?

Odkryłem, że konsola do gier wprowadzona przez Nintendo w 1983 roku faktycznie używała tego samego układu co Apple I i II, ale stała się urządzeniem specjalistycznym. Do dziś zakup PS5 lub Xboxa opiera się na tej samej logice. Dlatego gdy pionowy scenariusz ma wystarczającą głębokość potrzeb obliczeniowych, wymagań systemowych i scenariuszy zastosowań, może utworzyć niezależną kategorię urządzeń specjalistycznych. PDA z 1999 roku jest kolejnym przykładem. Używał stosunkowo przestarzałych, niskomocowych urządzeń, aby sprostać potrzebie osobistego asystenta cyfrowego. Chociaż PDA w tamtym czasie nie był jeszcze telefonem, a jedynie tanim narzędziem do zarządzania terminarzem i kontaktami, był znacznie tańszy niż PC i zajmował mały ekosystem urządzeń przenośnych, co można uznać za poprzednika telefonu komórkowego. Nie został jednak całkowicie zastąpiony przez późniejsze laptopy; zamiast tego rozwój telefonów komórkowych go przewyższył.

Czy między 1980 a 2000 rokiem pojawiło się jedno, zunifikowane urządzenie obliczeniowe w przemyśle komputerowym? Słowem kluczowym jest „głębokość scenariusza”.

NES-Console-Set.png

NES – 1983

MOS Technology 6502

PDA - 1999

PDA – 1999

Motorola DragonBall 16 MHz

Granica między urządzeniami specjalistycznymi a ogólnego przeznaczenia skłania nas do refleksji: które z dzisiejszych inteligentnych urządzeń AI zostaną pochłonięte przez telefony AI, a które niezależnie rozwiną się w nowe kategorie, takie jak zabawki AI? Pod względem głębokości scenariuszy i inwestycji w zasoby, możemy użyć konsol do gier i PDA jako analogii do głębokiego myślenia.

Na marginesie, wczesne procesory 8-bitowe miały wydajność obliczeniową nieporównywalną z dzisiejszymi procesorami ARM; były porównywalne do kontrolera wyświetlacza w twojej domowej lodówce lub mikrofalówce. Komputer z 1980 roku był zasadniczo na poziomie obliczeniowym twojej domowej lodówki. Chodzi o to, że patrząc wstecz, nie był tak potężny, jak mogłoby się wydawać, ale położył fundamenty całego przemysłu PC i rozwoju internetu.

PDA kontra PC – moc obliczeniowa, koszt, zużycie energii, scenariusze zastosowań i interakcja człowiek-komputer
Wymiar porównawczy PDA PC w 1999 roku
Moc obliczeniowa Niskowydajny procesor (np. Motorola DragonBall 16 MHz), 2-16 MB RAM, ograniczona przestrzeń dyskowa; słabe możliwości graficzne i multimedialne. Wydajny procesor (np. Intel Pentium III 500 MHz); 64-256 MB RAM, 10-20 GB pojemności dysku twardego; potężne możliwości graficzne i multimedialne.
Koszt Zakres cenowy: 200-600 USD;
Głównie do zarządzania informacjami osobistymi (PIM), wysoka opłacalność.
Zakres cenowy: 1000-2000 USD;
Zapewnia kompleksowe funkcje obliczeniowe, szeroki zakres zastosowań, wysoka opłacalność.
Zużycie energii Niskie zużycie energii, zasilany baterią;
Długi czas pracy na baterii, zużycie energii od kilkuset miliwatów do kilku watów.
Wysokie zużycie energii, zazwyczaj 100-300 watów;
Wymaga ciągłego zasilania, słaba przenośność.
Scenariusze zastosowań Zarządzanie harmonogramem, zarządzanie kontaktami, listy zadań;
Proste przetwarzanie tekstu, notatki, e-mail; kładzie nacisk na przenośność i natychmiastowość.
Praca biurowa (edytory tekstu, arkusze kalkulacyjne);
Rozrywka (gry, muzyka, filmy);
Przeglądanie internetu i komunikacja, rozwój oprogramowania, projektowanie graficzne itp.
Przenośność Mały rozmiar, lekki; łatwy do przenoszenia i używania w dowolnym czasie i miejscu. Duży rozmiar, duża waga; do użytku w stałym miejscu, trudny do przenoszenia.

Dzisiejszy komputer AI, aplikacje i nowe możliwości

Wracając do teraźniejszości, chociaż elementy łańcucha przemysłowego się zmieniły, to co pozostaje niezmienne, to ludzki popyt na zatrzymywanie, produkcję i rozpowszechnianie danych. Na poziomie abstrakcyjnym potrzeby ludzi przesuwają się od operacji GUI do potrzeby konkurenta lub inteligentnego agenta, który automatycznie wykona kod lub zadania. Co pozostaje stałe, to potrzeba pozyskiwania i przechowywania informacji. Dzięki wdrożeniu Copilota twórcy mogą wprowadzić kontekst i pozwolić maszynie pomóc im tworzyć kreatywne skrypty lub zrozumieć, co robią ich rówieśnicy.

Na przykład firma może użyć agenta do śledzenia wszystkich istotnych innowacji branżowych w czasie rzeczywistym i automatycznie generować cotygodniowe raporty. Te sposoby zatrzymywania i pozyskiwania danych produkcyjnych staną się mądrzejsze i bardziej inteligentne. Nośnikiem tego z pewnością będzie coś innego niż tradycyjny PC; będzie to urządzenie obliczeniowe działające cały czas, w czasie rzeczywistym. W przeszłości ludzie potrzebowali myszy i GUI, aby być produktywni; ale gdy inteligencja jest bezpośrednio wbudowana w urządzenie obliczeniowe, może działać samodzielnie. Oznacza to, że interakcja człowiek-komputer nie musi już opierać się na myszy i ekranie. Możesz zlecić mu zadanie, a ono je wykona bezpośrednio.

A proces osiągania tego wszystkiego ujawnia wzorzec, który można dostrzec w mikrokosmosie ostatnich 40 lat. Dlatego te podstawowe wymagania scenariuszy są spójne! Nowa produktywność napędzana przez GPT nadal będzie zdominowana przez scenariusze produktywności na wczesnym etapie, podobnie jak Lotus 1-2-3 w erze DOS! Możemy budować na tym fundamencie, dodawać nowe zmienne produkcyjne i znaleźć możliwe wczesne scenariusze zastosowań. W połączeniu z wcześniej wspomnianym przemysłem gier, przetwarzaniem obrazów oraz metodami produkcji, pozyskiwania i rozpowszechniania danych, możemy teoretycznie zbadać wszystkie możliwości.

Cyfryzacja -> Inteligentyzacja

Retencja: Maszyna pozyskuje informacje, dostarcza spersonalizowane rekomendacje.

Produkcja: Modele uczestniczą w podejmowaniu decyzji i wspomagają proces produkcji.

Dystrybucja: Maszyna automatycznie zarządza dystrybucją i rozpowszechnianiem.

Nowe czynniki produkcyjne

Teraz możemy dostrzec cztery nowe czynniki produkcyjne, które zaczynają się pojawiać: rozwój GPU i TPU, nowe modele systemów operacyjnych, prywatyzacja danych oraz ilość unikalnych danych użytkowników. Gdy te czynniki zostaną połączone, możemy być świadkami narodzin zupełnie nowego „zintegrowanego urządzenia obliczeniowo-magazynującego”. Jego pozycja różni się od telefonów komórkowych, laptopów, a nawet chmury publicznej. Postaram się jasno przedstawić jego cechy w tabeli.

Dane prywatne

Duże modele

Moc obliczeniowa GPU/TPU

Zastosowania

Kobieta korzystająca z komputera.jpg

Ikona Ollama

Ilustrator GPU/TPU

Autor: Brian Kerrigan
Creative Commons Uznanie Autorstwa-Na Tych Samych Warunkach 3.0 Unported

  • Dane prywatne: Wysokiej jakości zasoby danych własnych w organizacji lub dane prywatnie pozyskane przez maszyny są kluczowymi zasobami do trenowania i optymalizacji modeli AI.
  • Możliwości dużych modeli: Zdolność do rozumienia, generowania i rozumowania, dostosowująca się do różnych zadań i scenariuszy.
  • Moc obliczeniowa GPU lub ASIC: Specjalistyczny sprzęt wysokiej wydajności do inferencji.
  • Aplikacje AI: Nowe aplikacje oparte na LLM, zintegrowane z różnymi scenariuszami.

Scenariusze i nośniki – jedna tabela

Porównanie Telefon komórkowy Chmura prywatna Chmura publiczna
Aplikacja AI Lekki, Copilot Prywatna zdolność inferencji, Agent OpenAI, Agent
Możliwości dużych modeli 3B 7B – 100B 405B
Wydajność obliczeniowa Mobilny chip, niskie zużycie energii
6W 20 TOPS
GPU / ASIC, średnio-wysoka wydajność
200W 200 TOPS
Wysokowydajny klaster, elastyczne skalowanie
System operacyjny Android, iOS
Wykonanie w czasie działania
Pełny dostęp do danych
Prywatny system operacyjny chmury
Wykonywanie zadań w czasie rzeczywistym
Pełny dostęp do danych
System specyficzny dla platformy chmurowej
Wykonywanie zadań w czasie rzeczywistym
Częściowe upoważnienie
Magazynowanie danych 2TB Skalowalna pojemność, setki TB Skalowalna pojemność
Żywotność baterii Zestaw baterii
12 godzin
Podłączony
♾️
Podłączony
♾️

Ze względu na ograniczenia żywotności baterii zauważamy, że obliczenia stają się coraz lżejsze, co doprowadziło do dzisiejszych telefonów komórkowych i laptopów. Dlatego trajektoria rozwoju technologicznego zawsze zmierzała w kierunku przenośności i współpracy, które są długoterminowymi potrzebami ludzi. Podobnie jak rozwój e-commerce, ludzie dążą do wyższej jakości marek i lekkich doświadczeń, chcąc bardziej przenośnych baterii i telefonów. Jednak moc obliczeniowa i żywotność baterii są ograniczone przez limity energii i zużycia mocy, co ogranicza poziom inteligencji modeli, które mogą działać na urządzeniach, obecnie zazwyczaj na poziomie 3B parametrów.

Oznacza to, że gdy Windows lub następna generacja systemu Android będzie gotowa, prawdopodobnie będą one oparte na modelach poziomu 3B i Copilot, inspirując nową generację aplikacji AI, takich jak przeglądarki napędzane AI, narzędzia do odpowiadania na e-maile itp. Przestrzeń dla tych aplikacji jest ograniczona, ale nadal będą bardzo interesujące, ponieważ mogą uruchamiać tylko modele poziomu 3B w tle. To etap, przez który nieuchronnie przejdą telefony komórkowe i laptopy, ponieważ z perspektywy procesu krzemowego moc obliczeniowa AI na wat nie zmieni się gwałtownie szybko.

Z drugiej strony istnieje czysta chmura obliczeniowa. Problem z chmurą polega jednak na tym: czy jesteś gotów przekazać swoje dane z platform takich jak Notion, Slack i Lark dostawcy chmury? Albo czy jesteś gotów dać jednemu dostawcy usług chmurowych pełny dostęp do swoich kont Taobao, WeChat i finansowych? To oczywiście wiąże się z ogromnym kosztem decyzyjnym na poziomie psychologicznym. Dlatego chmura będzie istnieć na najwyższym poziomie, dostarczając najbardziej inteligentne możliwości modeli poprzez wywołania API, przenikając i obejmując duże przedsiębiorstwa.

Ale w międzyczasie pojawiła się możliwość stworzenia nowego systemu operacyjnego. Ten system operacyjny będzie działał jako nośnik dla inteligentnego agenta, uruchamianego na urządzeniu włączonym 24 godziny na dobę. Możesz wysyłać mu zadania ze swojego telefonu lub laptopa, a on będzie je automatycznie wykonywał w tle. Posiada ogromną pojemność magazynowania danych, a ponieważ nie ma ograniczeń mocy obliczeniowej, może być wyposażony w GPU o mocy rzędu stu watów, zapewniający około 200 TOPS mocy obliczeniowej AI. Iteracja TPU i NPU jeszcze bardziej obniży koszty mocy obliczeniowej, podobnie jak ewolucja wczesnego układu 8088.

Na tej podstawie można zbudować model w czasie rzeczywistym, wystarczająco inteligentny, aby służyć każdemu. Odnosząc to do teraźniejszości, są to duże modele na poziomie 7B do 100B, które wszyscy wypuszczają, które po kwantyzacji mogą działać w całości na architekturze obliczeniowej 200 TOPS. Jeśli będzie odpowiednie wsparcie systemu operacyjnego, pojawi się bogaty ekosystem aplikacji inteligentnych agentów. Te modele na poziomie systemowym są precyzyjnie dostrojone, to, co często nazywamy modelami edge. Chociaż łańcuch przemysłowy ma wiele elementów, to nowe urządzenie ma jasne pozycjonowanie. Podobnie jak laptop, który kupujesz, możesz zalogować się na różne konta, nie martwiąc się zbytnio o kwestie bezpieczeństwa danych, ponieważ to twoje osobiste urządzenie komputerowe. Jest na tyle inteligentne, by służyć ci 24 godziny na dobę.

Twórcy, inżynierowie i pracownicy wiedzy

Twórcy

Twórcy

Freelancer

Freelancerzy

Programiści

Programiści

Pomijając innowacje front-endowe, takie jak okulary i słuchawki, na back-endzie bardzo prawdopodobne jest pojawienie się osobistego urządzenia komputerowego, które przejdzie od produktywności do użytku konsumenckiego. To urządzenie, które przechodzi od czystego przetwarzania do integracji obliczeń i przechowywania. Dziś mobilność danych i współpraca są ulepszone, a zapotrzebowanie na moc obliczeniową również rośnie. Urządzenie zintegrowane z obliczeniami i przechowywaniem staje się niezbędnym nośnikiem dla osobistego inteligentnego agenta.

Początkowo takie urządzenia mogą koncentrować się na grupach takich jak twórcy, inżynierowie i pracownicy wiedzy, aby wejść na rynek. Zazwyczaj mają oni dużą ilość bogatych danych multimedialnych i potrzebę zarządzania zasobami oraz wymagają narzędzi produktywności, aby sprostać swoim problemom w zakresie przechowywania i współpracy. Jest to podobne do ścieżki penetracji wczesnych komputerów PC, celując w użytkowników gotowych zapłacić i mających silne zapotrzebowanie na produktywność, w ten sposób wchodząc na to nowe pole bitwy.

ZimaCube – Prywatna chmura twórcy

Niedawno przeprowadziliśmy kolejne wywiady z licznymi twórcami i profesjonalistami z branży treści, odkrywając szerszy zakres scenariuszy zastosowań. W rzeczywistości ta kategoria ma bardzo długi pipeline. Podejście ZimaCube jest bardziej zbliżone do pionowej integracji Apple, i musimy przemyśleć, jak postępować na różnych etapach. Obecnie NAS (Network Attached Storage) służy jako nośnik dla AI. Ma swój własny proces iteracyjny. W tym procesie osiągamy komercjalizację poprzez pionową integrację prywatnych rozwiązań chmurowych twórców.

Sprzęt ZimaCube Interfejs oprogramowania ZimaCube

Sprzęt nie jest barierą, lecz punktem wyjścia; potrzebuje pewnej unikalności.

System i aplikacje służą scenariuszowi.

Sprzęt to punkt wyjścia; zaczyna się od sprzętu, ale to aplikacje nadają wartość scenariuszowi. Otwarty ekosystem aplikacji może pomóc nam zaabsorbować różne pojawiające się aplikacje, takie jak Lotus 1-2-3 wcześniej. Nie musimy się spieszyć z inwestowaniem dużych zasobów w rozwój aplikacji; zamiast tego powinniśmy zbudować platformę i promować ją poprzez działania oparte na społeczności.

System i aplikacje firm trzecich

Pozostań otwarty, włączaj główne aplikacje ze społeczności LocalLLM i buduj App Store z dokumentacją oraz unikalnymi standardami aplikacji.

Konieczność łączenia systemów i społeczności w globalnym kontekście biznesowym

Jednak hybrydowe produkty sprzętowo-programowe są rzeczywiście trudne do stworzenia. W dzisiejszych Chinach wiele innowacyjnych firm wymaga podwójnych zdolności. Pod względem zdolności organizacyjnych z jednej strony muszą stosować podejście „waterfall” do zarządzania sprzętem i procesów produkcyjnych, aby kontrolować koszty i ryzyko sprzętu; z drugiej strony muszą budować zwinne, iteracyjne podejście do aktualizacji systemów oprogramowania co tydzień lub co miesiąc.

Społeczności mogą być doskonałym narzędziem do przekazywania globalnych potrzeb użytkowników i informacji zwrotnych do naszych systemów oprogramowania. Sam sprzęt może nie wymagać częstych aktualizacji. Jeśli sprzedajesz power bank, oceny Amazona i zarządzanie waterfall mogą uzupełnić definicję produktu i roczny cykl sprzedaży. Jednak dziś jest niewiele nisz dla kreatywnych firm opierających się wyłącznie na dostawie sprzętu. Większość kategorii opartych na ekonomii skali jest zdominowana przez gigantów, a nie ma nowych struktur ruchu, które mogłyby szybko rozszerzyć rynek.

Uniwersalne wyzwanie: wezwanie do następnej generacji twórców platform

Historia pokazuje, że każda era obliczeniowa jest ostatecznie definiowana przez jedną lub kilka dominujących platform. Dziś budowanie tej nowej platformy to wspólna szansa i wyzwanie dla wszystkich innowatorów na świecie. Wymaga to bezprecedensowych i kompleksowych zdolności przekraczających granice:

Głęboka integracja sprzętu i oprogramowania: Wymaga to doskonałego połączenia rygoru „waterfall” w rozwoju sprzętu z „zwinnością” iteracji oprogramowania. Udana innowacja to już nie tylko sprzęt czy oprogramowanie, lecz bezproblemowo zintegrowany „Produkt Hybrydowy”.

Wspólne budowanie ekosystemów i społeczności: Tak jak Homebrew Computer Club zapoczątkował rewolucję PC, dzisiejsze społeczności open-source (takie jak LocalLLM) są kolebką następnej generacji „killer apps”. Zamknięty system może wygrać na chwilę, ale tylko otwarty ekosystem może wygrać przyszłość.

Dlatego ostateczna lekcja z lat 80. nie dotyczy geografii, lecz wizji. Zwycięzcy tamtej ery wygrali nie dlatego, że byli w Silicon Valley, lecz dlatego, że skutecznie zintegrowali chipy, systemy i aplikacje w platformę, która dała ludziom moc i zapoczątkowała nową erę.

Dziś scena jest gotowa. Dla przedsiębiorców i inwestorów na całym świecie prawdziwe pytanie nie brzmi „gdzie” innowować, lecz „jak” skutecznie zorganizować nowe czynniki produkcji — prywatne dane, modele AI i dostępną moc obliczeniową — w nową, zorientowaną na człowieka platformę, która uwolni kreatywność. To nie jest solowy występ żadnego pojedynczego kraju czy regionu, lecz globalne przedsięwzięcie, które dotyczy nas wszystkich i ma na celu przekształcenie przyszłości obliczeń.

Zostaw komentarz

Twój adres email nie zostanie opublikowany..

    1 out of ...
    Koszyk 0

    Twój koszyk jest aktualnie pusty.

    Rozpocznij zakupy