Ce contenu provient d’une session de partage par IceWhale Technology au sein de FreeS Fund. Il vise à passer en revue les transformations clés, les tendances de développement, les événements critiques et les demandes constantes sous-jacentes des consommateurs de l’industrie du PC de la Silicon Valley dans les années 1980. L’article est assez long, couvrant l’état des puces dans les années 1980, le début et la pénétration des PC, les changements dans les systèmes DOS et Windows 1.0 de 1980 à 1990, les premières applications phares du PC, et les scénarios de démarrage à froid. Nous espérons que vous pourrez le lire patiemment, en vous efforçant d’inspirer vos décisions d’investissement et vos innovations produits dans le matériel et les applications d’IA.
En empruntant une citation de Ray Dalio de Bridgewater Associates :
L’idée que l’histoire humaine présente des schémas répétitifs est simplement la réalité. Peut-être que « cycle » n’est pas le bon mot pour cela, peut-être devrait-on parler d’un motif, mais je pense que les deux décrivent le processus.
—— Ray Dalio
L’essor du PC, le processus d’informatisation et les quatre éléments clés
Musée de l’histoire de l’informatique, Silicon Valley des années 1980

Apple II – 1977
MOS Technology 6502, 8 bits, couleur, 1200 $+, 8 emplacements d’extension
Auteur : Rama
Licence : CC BY 2.0

IBM PC – 1981
Intel 8088, 16 bits, 16 MHz, 1500 $
Auteur : Rama & Musée Bolo
Licence : CC BY-SA 2.0 fr

Commodore 64 – 1982
595 $ -> 299 $
Auteur : Bill Bertram
Licence : Creative Commons Attribution-Share Alike 2.5
Aujourd’hui, alors qu’OpenAI, Google et Microsoft définissent « l’ère de l’intelligence » basée sur les grands modèles, revenons d’abord à la « ère de l’information » inaugurée par la naissance du PC en 1976. C’est à ce moment-là que l’Apple I est né. Cet ordinateur a été lancé par Steve Jobs et Steve Wozniak dans une communauté de geeks appelée Homebrew Computer Club, au prix de 600 $. La sortie de l’Apple I dans ce club ressemblait beaucoup à un projet de financement participatif en ligne sur Kickstarter aujourd’hui. Il était destiné uniquement aux geeks, nécessitait un assemblage manuel des pièces, et était vendu en kit… les premières ventes ne dépassaient guère 200 unités. Mais ce produit a posé les bases d’Apple, aidant Jobs et son équipe à accumuler leur première base d’utilisateurs initiaux.
Peu après, en 1977, Apple a lancé l’Apple II. Cette génération était non seulement plus raffinée en apparence, avec un affichage en couleur, mais comprenait aussi des emplacements d’extension et un boîtier intégré, facilitant l’expansion et le bricolage pour les geeks. Cependant, d’autres spécifications clés n’ont pas beaucoup changé. La sortie de l’Apple II fut une étape importante ; il était vendu à 1250 $, bien en dessous des ordinateurs commerciaux coûteux de l’époque.
Quatre ans plus tard, IBM, apparemment sous pression du marché, a dépêché une équipe réduite de 12 personnes pour lancer un projet nommé en code « Project Chess », affirmant sa position de leader de l’industrie. En tant qu’entreprise leader, ils devaient naturellement faire une déclaration forte. Ils ont introduit l’IBM PC, basé sur un processeur Intel, et adopté une architecture matérielle ouverte. Cela a ouvert la porte à d’autres fabricants pour créer des appareils compatibles, ce qui a favorisé la formation de l’écosystème Wintel. La stratégie ouverte d’IBM a rapidement conduit à l’acceptation de sa norme PC par le marché.
Le Commodore 64 en 1982 est une autre entreprise à noter, bien qu’elle n’ait pas eu un grand succès. À ses débuts, elle a correctement deviné plusieurs stratégies clés. Elle offrait des performances graphiques et audio de pointe à un prix compétitif de 595 $, ce qui a été bien accueilli. En même temps, Commodore a donné la priorité à son expansion sur le marché européen, avec plus de la moitié de ses revenus provenant d’Europe. En tirant parti des réseaux de distribution locaux et de la publicité, elle a rapidement gagné en popularité, posant une base solide pour sa présence sur le marché mondial des ordinateurs personnels.
Tout comme aujourd’hui il existe de nombreux sous-canaux sur Reddit pour les grands modèles comme ChatGPT, LocalLLM et Stable Diffusion, aux débuts de chaque époque, un grand nombre de personnes talentueuses et d’idées sont nées dans des communautés en ligne et hors ligne. Ce n’est pas si étranger au monde d’aujourd’hui, car de nombreux géants de la tech traînaient dans les forums BBS à l’arrivée d’internet, avant de se disperser dans diverses industries. Aujourd’hui, la communauté autour des grands modèles dans les meilleures universités présente des caractéristiques similaires.
Mais ce qui est plus intéressant, c'est que ces clubs ont tendance à disparaître progressivement en une décennie. Le schéma est que lorsqu'une nouvelle catégorie émerge, elle attire un groupe d'enthousiastes très actifs dans la communauté, proposant diverses idées et créant même des prototypes de produits précoces. Lorsque les grandes entreprises interviennent et que l'innovation se tourne vers la commercialisation, les idées initiales, nées de la communauté et ascendantes, mûrissent et prennent forme. Cependant, ces communautés ont souvent un « destin » : elles prospèrent énormément pendant les périodes d'innovation active, mais leur popularité décline à mesure que l'industrie mûrit et que les géants émergent. Le Homebrew Computer Club, ainsi que le développement de l'industrie actuelle des modèles, de l'impression 3D et des quadricoptères, suivent tous ce schéma de « boom et déclin ».
![]() Auteur : ZyMOS |
L'Intel 8088 est un processeur classique sorti en 1979, utilisé dans l'IBM PC.
|
Deuxièmement, examinons les puces de cette époque, qui étaient la base de la catégorie PC. La définition d'un PC est indissociable de la baisse continue des coûts des puces et d'une puissance de calcul « juste suffisante ». Être adapté à l'usage et abordable a permis aux PC d'entrer sur le marché de masse. L'Intel 8088 en est un exemple typique. Le 8088 a ajusté la largeur du bus par rapport à son prédécesseur, le 8086, ce qui a réduit les coûts, lui permettant de devenir la puce centrale de l'IBM PC.
À cette époque, les équipements informatiques commerciaux et militaires principaux d'IBM étaient très grands et puissants, mais totalement « surdimensionnés » pour le marché personnel. Le 8088, en revanche, était un pas en arrière, offrant une puissance de calcul équilibrée à moindre coût, un peu comme les appareils NAS (Network Attached Storage) d'aujourd'hui qui simplifient les serveurs commerciaux en une taille et une puissance de calcul adaptées à un usage domestique, permettant aux particuliers d'avoir leurs propres petites solutions informatiques.
Si le H200 de NVIDIA est aujourd'hui le leader commercial, qui développe les puces ASIC qui intégreront les modèles dans divers terminaux informatiques comme les PC IA ou les NAS IA ?
L'évolution des systèmes – Chaque génération vante son « interface utilisateur conviviale »
Tout comme chaque entreprise aujourd'hui prétend avoir un « système intelligent »

Auteur : Vadim Rumyantsev
domaine public
Passionnés de technologie, petites entreprises
Interface en ligne de commande

Auteur : leighklotz
Creative Commons Attribution 2.0 Generic
Utilisateurs d'entreprise
Premier à introduire une interface graphique ; un article de luxe au prix de 16 595 $…

Auteur : Eric Chan de Hong Kong
Creative Commons Attribution 2.0
Consommateurs de masse, professionnels créatifs, éducation
Adoption généralisée de l'interface graphique (GUI)
DOS – Disk Operation System
Troisièmement, examinons les premiers systèmes d'exploitation. Tout comme les gens « affinent » les modèles aujourd'hui, c'était essentiellement quelque chose que seuls les ingénieurs pouvaient bricoler. Vers 1978-79, environ dix mille ingénieurs dans la Silicon Valley travaillaient avec des systèmes DOS, qui étaient entièrement basés sur la ligne de commande sans interface graphique. À ce stade, les systèmes d'exploitation étaient loin de pénétrer l'usage quotidien des entreprises et du grand public, un peu comme les modèles d'IA aujourd'hui, qui sont encore entre les mains d'un groupe de passionnés de technologie.
Ce n'est qu'en 1981, avec le lancement du premier PC d'IBM, que le système DOS a progressivement attiré plus d'attention, mais il s'agissait encore d'une version en ligne de commande sans interface graphique. Par conséquent, les scénarios informatiques de l'époque étaient très similaires à l'IA aujourd'hui : ils nécessitaient un grand nombre de passionnés de technologie et d'ingénieurs pour ajuster et intégrer à plusieurs reprises afin d'atteindre des applications spécifiques. Ce qui a véritablement porté les PC et les systèmes d'exploitation au niveau des entreprises fut l'interface utilisateur graphique (GUI) du Xerox Star, qui a lancé la première véritable vague d'expansion des utilisateurs.
En 1984, le système d'interface graphique lancé par Apple a élargi la base d'utilisateurs aux domaines créatifs, éducatifs et autres secteurs professionnels, ouvrant lentement la voie à l'application massive des systèmes d'exploitation. Cependant, durant cette période, les systèmes DOS et GUI ont coexisté longtemps, les entreprises maintenant deux systèmes séparés pour répondre à différents besoins.
L'écosystème applicatif du début des années 1980, ce que nous appelons aujourd'hui les « Killer Apps »
|
Lotus 1-2-3 – 1982
Auteur : Odacir Blanco |
WordPerfect – 1985
Licence : Domaine public |
Quatrièmement, l'écosystème applicatif qui s'est développé progressivement parallèlement aux capacités du système et du matériel ! Voici quelques applications représentatives et un aperçu de leur chemin de pénétration dans la révolution de la productivité sur PC.
Dans ces premiers systèmes d'interface utilisateur, le marché n'avait pas encore atteint une échelle grand public et était principalement composé de scénarios de productivité. Certaines applications ont commencé à se démarquer, comme Lotus 1-2-3, un célèbre logiciel de gestion financière et une version précoce d'Excel. WordPerfect, sorti en 1985, était principalement utilisé dans les domaines juridique et académique. Cependant, ces opérations d'édition ne se faisaient pas via une interface graphique soignée mais reposaient sur la ligne de commande DOS. Les travailleurs du savoir devaient apprendre les opérations pertinentes en ligne de commande pour accomplir leurs tâches d'édition.
Dans le domaine de la recherche académique, l'utilisation des PC pour la numérisation de documents et la collaboration a apporté d'énormes améliorations en termes d'efficacité. Ainsi, dès 1988, le taux de pénétration des PC dans le milieu académique était très élevé pour des scénarios tels que le transfert de fichiers, la communication par email et la rédaction de textes. Cependant, ce n'est qu'en 1989, avec l'amélioration de la puissance de calcul des CPU et des capacités de traitement GUI, que cela a commencé à avoir un impact majeur sur des industries comme l'impression et le design publicitaire. C'est un peu comme aujourd'hui ; bien qu'OpenAI ait publié un modèle vidéo mondial, il n'a pas été rapidement appliqué à des scénarios pratiques car la maturation des ressources informatiques et de la technologie GUI prend du temps.
|
CorelDRAW – 1989
Graphistes, industrie de l'impression |
Quicken – 1984
Utilisateurs personnels, petites entreprises |
Flight Simulator – 1985
Passionnés d'aviation, étudiants |
Aux débuts d'une nouvelle plateforme informatique, l'innovation applicative qui s'immerge profondément dans des scénarios verticaux conserve une immense valeur pour l'industrie. Si nous faisons une analogie avec le présent, je crois que l'année prochaine, lorsque la puissance de calcul TPU dans les PC sera prête et que Windows, en tant que système d'exploitation intermédiaire standard, pourra fournir une puissance de calcul IA puissante pour les applications de couche supérieure, une nouvelle vague d'applications PC liées à l'IA, semblables à Copilot, émergera, fonctionnant directement en périphérie.
Dans ce contexte, Quicken a approfondi l'expérience dans les scénarios d'affaires basés sur Lotus. Il a amélioré l'interface d'interaction et la configurabilité du système DOS d'origine, se développant en profondeur pour répondre aux besoins de la gestion financière et des petites entreprises. Cela a donné à ces premières applications un bon espace de survie.
Cependant, les prix de ces applications étaient assez élevés. Par exemple, Lotus 1-2-3 était vendu à près de 500 $, ce qui était une solution très coûteuse en 1985. Cela indique que les premiers scénarios de productivité étaient principalement portés par des consommateurs ayant un fort pouvoir d'achat.
De plus, il y avait quelques jeux et simulateurs pour les passionnés, comme « Flight Simulator » sur Windows, qui offraient des fonctionnalités de produit plus diversifiées et légères, attirant de nouveaux utilisateurs aimant explorer et expérimenter. Par conséquent, on peut voir que l'écosystème PC initial a été construit par une combinaison d'outils de productivité lourds, une pénétration dans les petites et moyennes entreprises, la recherche industrielle et académique, ainsi que quelques applications innovantes intéressantes. Cependant, la chronologie de ce processus a été très longue car les technologies sous-jacentes DOS et GUI se développaient relativement lentement.
Plus précisément, les fournisseurs d'applications comme Lotus ont joué un rôle clé. Ils n'étaient pas des fournisseurs de systèmes d'exploitation ; ces derniers se concentraient sur la fiabilité, la planification des ressources et la scalabilité du système. Dans la période de 8 à 9 ans allant de 1982 à 1990, Lotus a saisi l'opportunité de combler un vide sur le marché. Apple et Microsoft n'ont commencé à publier leurs suites Office complètes qu'à partir des années 1990, offrant ainsi à ces applications au niveau système un avantage de marché de 7 à 8 ans. Ils ont tiré parti de la popularité du IBM PC et du système DOS pour pénétrer rapidement les utilisateurs d'entreprise, la comptabilité financière et d'autres domaines. Ces utilisateurs avaient de forts besoins en traitement de données, et la combinaison des nouveaux ordinateurs et du logiciel Lotus a permis une pénétration complète dans ces scénarios.
Windows 1.0 et le discours de vente « fou » de Ballmer
En revenant à 1985, la part de marché de Lotus avait déjà dépassé 50 %. Face à son prix élevé de 495 $, il n'est pas difficile de comprendre pourquoi Steve Ballmer, en promouvant Windows 1.0, a souligné : « Nous proposons un jeu d'échecs, un tableur et un traitement d'images pour seulement 99 $, pas 500 ou 600 $. » À cette époque, le prix des logiciels était un argument de vente très attractif en marketing. Lors de la vente du système d'exploitation, des logiciels graphiques spécialisés comme CorelDRAW, un peu similaires au futur Photoshop, offraient aux utilisateurs des fonctions professionnelles de traitement d'images.
Lotus 1-2-3
Entreprise : Lotus Development Corporation
Contexte : Lotus 1-2-3 a été développé par Lotus Development Corporation, fondée par Mitch Kapor en 1982. Lotus 1-2-3 a été le premier logiciel pour IBM PC à offrir des fonctions intégrées de tableur, graphique et gestion de base de données, devenant rapidement l'un des logiciels d'application les plus populaires, notamment parmi les utilisateurs professionnels et d'entreprise.
Profil utilisateur : Les principaux utilisateurs étaient des utilisateurs d'entreprise, en particulier des analystes financiers, comptables et gestionnaires. Ces utilisateurs avaient généralement un certain niveau de connaissances techniques et étaient très sensibles aux données.
Principaux cas d'utilisation : Utilisé pour la gestion des données, la modélisation financière complexe, la budgétisation, la génération de rapports et diverses autres formes d'analyse de données. Les fonctionnalités puissantes de Lotus 1-2-3 en ont fait le choix numéro un pour l'utilisation des tableurs en entreprise.
1983: Lotus 1-2-3 a été lancé et est rapidement devenu le leader du marché, notamment sur les compatibles IBM PC.
1985: La part de marché a dépassé 50 %, avec un prix de 495 $.
CorelDRAW
Entreprise : Corel Corporation
Contexte : À la fin des années 1980, avec la popularisation des interfaces graphiques utilisateur (GUI) et des ordinateurs personnels (PC), les marchés du design graphique et de la publication assistée par ordinateur ont connu une croissance rapide. Les processus de conception traditionnels (dessin manuel et composition typographique) ont commencé à passer au numérique.
Profil utilisateur : Avaient une certaine compréhension du design graphique informatique, mais n'étaient pas nécessairement des experts techniques.
- Designers professionnels et illustrateurs : Avaient besoin d'outils de dessin vectoriel précis pour créer des illustrations, logos et autres œuvres de design.
- Professionnels de la publication assistée par ordinateur (PAO) : Devaient combiner texte et graphiques pour produire des livres, magazines, supports promotionnels, etc.
- Petites et moyennes entreprises et freelances : Utilisaient CorelDRAW pour créer des logos d'entreprise, des publicités et des supports marketing sans matériel et logiciel de conception dédiés coûteux.
1989: CorelDRAW 1.0 a été le premier logiciel à combiner la conception graphique vectorielle et les fonctions de publication assistée par ordinateur, et son lancement a déclenché une révolution dans le domaine du design graphique. Cette version prenait en charge des fonctionnalités telles que les pages multiples, l'édition de courbes et le traitement de texte.
De MS-DOS 1.0 acquis à Windows + Office
| Temps | Titre | Détails |
|---|---|---|
| 1981 | MS-DOS 1.0 | Partenariat confirmé avec IBM |
| 1982 | MS-DOS 1.25 | Licencié à des marques compatibles tierces |
| 1983 | MS-DOS 2.0 Microsoft Word |
Fonctionnalités système améliorées Support des disques durs et des structures de répertoires |
| 1985 | Windows 1.0 | Ajout d’une interface graphique au-dessus de Microsoft MS-DOS |
| 1987 | Windows 2.0 | Meilleur support graphique et performances Fenêtres superposées et raccourcis clavier |
| 1988 | MS-DOS 4.0 | A introduit l’interface graphique DOS Shell |
| 1989 | Microsoft Office | Fournissait une intégration d’automatisation de bureau pour Windows |
L’ascension de Microsoft n’était peut-être pas due à ses produits initiaux, mais à sa stratégie commerciale excellente. Dès le début, Microsoft a montré un sens aigu des affaires en acquérant un système d’exploitation tiers appelé 86-DOS [oui, ils l’ont acheté…]. Ce mouvement en a fait un partenaire important pour IBM. Mais de manière surprenante, Microsoft s’est rapidement étendu la deuxième année, coopérant avec d’autres fabricants de matériel, un peu comme après que Tesla a défini les normes de l’industrie aujourd’hui, de nombreuses entreprises ont suivi, stimulant tout l’écosystème ODM et l’établissement des normes AIPC.
Après que Microsoft a défini la norme, les fabricants de matériel ont commencé à agir. En revenant à la piste actuelle des PC IA et aux applications IA en périphérie, nous verrons un grand nombre d’ordinateurs portables avec 40 TOPS de puissance de calcul IA arriver sur le marché, et Qualcomm fait des mouvements similaires. Cela apporte de nouvelles variables : d’une part, le matériel est amélioré, et d’autre part, l’importance du système d’exploitation dans la couche intermédiaire est mise en avant. Le système d’exploitation doit allouer efficacement les 40 TOPS de ressources de calcul pour répondre aux besoins de nombreuses applications de couche supérieure. Microsoft a investi massivement dans le développement du système d’exploitation, ne laissant pas de temps pour concurrencer Lotus ou WordPerfect pendant longtemps.
Ce n’est qu’à la troisième année que Microsoft a commencé à imiter WordPerfect [le système intègre les applications clés], et cela a continué jusqu’en 1989. Pendant huit ans, Microsoft a consolidé sa couverture de licences tierces pour le système et a commencé à vendre Windows 1.0 indépendamment en 1985. Il est important de noter que Windows 1.0 a été lancé quatre ans entiers après le système GUI de Xerox, ce qui montre la longue durée du développement des systèmes d’exploitation. Les premières versions de Windows étaient principalement fournies avec des appareils matériels, avec des ventes atteignant des dizaines de milliers d’unités dans les deux à trois premières années, et un cumul de cinq à six millions d’unités expédiées en huit ans.
La révolution de la productivité contre chaque foyer
À cette époque, le marché principal des PC ne se limitait pas à l'Amérique du Nord ; les pays développés d'Europe importaient également ces appareils par voie maritime. La base d'utilisateurs était principalement concentrée dans des scénarios de productivité intensive. Ce n'est qu'en 1989, lorsque des applications comme le traitement d'image ont commencé à émerger, que de nouveaux cas d'utilisation ont été stimulés. Même avec le lancement des systèmes GUI, ils n'ont pas immédiatement pénétré le marché grand public. L'entrée réelle dans les foyers ordinaires s'est produite vers 1994, avec la montée du navigateur Netscape et d'internet, lorsque de plus en plus de personnes utilisant des ordinateurs au travail ont commencé à acheter des appareils pour leur domicile.
Ce chemin d'évolution technologique, d'une révolution de la productivité à une explosion de la consommation, est clairement visible à l'ère du PC. Aujourd'hui, l'information se propage rapidement, et la capacité de l'IA à renforcer chaque scénario consommateur doit encore être vérifiée avec le temps. Aux premiers stades, nous devrons peut-être accorder plus d'attention aux changements du côté production et approvisionnement.
Un autre facteur clé est l'évolution de l'interaction homme-machine. L'introduction de la souris a créé un nouveau mode d'interaction homme-machine, qui a grandement influencé la pénétration des PC. De même, nous pouvons réfléchir à la structure actuelle en regardant la trajectoire de développement de Microsoft. Si l'OpenAI d'aujourd'hui valide la possibilité d'un système d'exploitation IA dans le cloud, alors en périphérie, sans le support d'un système d'exploitation, les applications de couche supérieure auront du mal à se développer. Lorsque le système d'exploitation et le matériel réaliseront des percées clés, les applications en aval pourraient connaître une croissance explosive.
Aujourd'hui, nous interagissons via le langage naturel et les flux vidéo, et ces nouvelles variables affecteront également les scénarios d'application de l'IA. Pour résumer brièvement, la raison pour laquelle Microsoft a mis de 1981 à 1989 pour développer DOS et l'interface graphique en parallèle était qu'ils devaient être compatibles avec un grand nombre de périphériques matériels. Cela explique aussi pourquoi Steve Jobs méprisait autrefois le système Windows, le jugeant complexe et peu esthétique. Cependant, d'un point de vue commercial, Microsoft a avancé prudemment : de l'acquisition du code et du lancement d'une interface graphique à la sortie d'Office huit ans après Lotus, ils ont consolidé leur position dans l'écosystème de toutes les manières possibles.
Un aperçu de l'architecture actuelle de Windows à travers le prisme de Windows NT
![]() Diagramme de l'Architecture Windows NT avec composants traduits |
|
Résumé des quatre éléments – Voir les variables et les demandes constantes
Puces, Système, Applications et Dispositifs
|
Stockage/Calcul
Conducteur |
Système
Fondation |
Application
Valeur utilisateur |
Produit
Véhicule |
Dans ce processus, plusieurs éléments clés méritent d'être notés. Le premier est l'évolution des unités de stockage et de calcul. Bien que les coûts des premiers puces et du stockage aient diminué, ils n'ont pas chuté de manière significative, ce qui est lié à l'avancement de la loi de Moore. Aujourd'hui, le déploiement de l'informatique en périphérie est également dû au fait que le développement technologique a atteint un certain point de basculement.
Deuxièmement, le système d'exploitation, en tant que middleware important, assume des tâches clés telles que la gestion des ressources et l'adaptation des dispositifs. Bien que les premiers systèmes n'étaient pas puissants, leur importance était évidente.
Troisièmement, les premières applications phares pouvaient générer des revenus, mais si elles n'étaient pas développées en profondeur, elles pouvaient finalement être remplacées [ce que l'on appelle souvent aujourd'hui les scénarios verticaux, nécessitant de la profondeur]. La question de savoir si les fournisseurs d'applications peuvent s'enfoncer jusqu'à la couche du système d'exploitation reste un sujet de réflexion.
En fin de compte, la valeur est capturée par un véhicule commercial. Au début, les gens achetaient le matériel comme véhicule, mais avec l'établissement des plateformes système, l'importance du matériel a relativement diminué. À l'ère où « la plateforme est reine », le système d'exploitation non seulement partageait la valeur mais nourrissait aussi un riche écosystème d'applications. Ce phénomène a également été vérifié à l'ère de l'internet mobile.
Nous pouvons cartographier ces quatre éléments — matériel, système d'exploitation, applications et interaction homme-machine — au développement actuel de l'IA. Du côté de l'offre, nous devons réfléchir à pourquoi les gens ont besoin d'ordinateurs et pourquoi ils ont besoin de modèles d'IA. La demande constante est un stockage et une édition efficaces et pratiques de l'information. Chaque génération d'appareils informatiques poursuit une interaction homme-machine plus naturelle et plus facile, ce qui est un thème éternel.
Enfin, la diffusion et le partage de l'information sont également des facteurs importants qui stimulent le développement technologique. Depuis les premiers emails jusqu'aux navigateurs ultérieurs, l'évolution des méthodes de diffusion a répondu aux besoins profonds des gens en matière de numérisation. Aujourd'hui, nous croyons généralement que nous sommes dans une vague d'intelligence, tout comme lors de la précédente révolution de l'information, et nous pouvons utiliser les schémas historiques pour faire des analogies et réfléchir aux directions futures.
- Couche fondation technologique (clé pour le stockage/le calcul) : Le développement des technologies matérielles de base telles que les processeurs (puissance de calcul) et le stockage (supports de stockage).
- Couche plateforme : La plateforme de base du PC, fournissant des interfaces avec le matériel et un environnement d'exécution pour les applications de couche supérieure.
- Couche application : Le logiciel applicatif est la principale motivation pour les utilisateurs d'acheter des PC et un facteur important pour attirer les utilisateurs vers une certaine plateforme.
- Véhicule de transaction : Les produits matériels sont les dispositifs physiques que les utilisateurs finaux achètent, disponibles pour que les utilisateurs choisissent et achètent.
Demande – Numérisation :
- Rétention : Un support pratique pour stocker l'information de manière permanente.
- Production : Le besoin constant d'efficacité dans le traitement de texte, des données, des images et de l'information dans les scénarios de productivité.
- Diffusion : L'efficacité de la collaboration.
Événements clés et tendances après 1990
| Année | Événement | Description |
|---|---|---|
| 1993 | Processeur Intel Pentium lancé | Amélioration significative des performances et de l'efficacité du CPU |
| 1998 | Windows 98 et norme USB 1.1 | Rendre les périphériques externes plug-and-play |
| 2000 | Intel Pentium 4 | Mainframe de bureau haute performance |
| 2003 | Explosion des applications Internet | MySpace et Facebook, Amazon et eBay |
| 2005 | Les ventes d'ordinateurs portables dépassent pour la première fois celles des ordinateurs de bureau | Plateforme Intel Centrino, intégrée avec des processeurs à faible consommation |
| 2007 | L'essor des netbooks | Apparition des netbooks basés sur les processeurs Intel Atom |
| 2011 | Ultraportable | Concept d'Ultrabook, ordinateur portable vs tablette |
| 2018 | Smartphone | A remplacé d'autres appareils pour devenir l'informatique mobile principale |
Le tableau ci-dessus montre clairement des informations très intéressantes ! En entrant dans les années 1990, nous avons accueilli la sortie du processeur Intel Pentium, l'explosion des applications Internet, la naissance de Windows 98, et l'apparition de l'USB 1.1, des netbooks et des ultrabooks. Cette série d'innovations technologiques trace la tendance immuable dans le développement des ordinateurs — Internet est véritablement entré dans chaque foyer.
Pendant cette période, les CPU sont devenus encore plus légers, et l'avènement de l'USB 1.1 a rendu l'extension des périphériques plus pratique, facilitant la connexion d'appareils comme les souris. L'essor d'Internet a conduit un grand nombre de consommateurs à commencer à utiliser des dispositifs informatiques personnels. Il est important de noter que le développement du PC montre une tendance claire : la légèreté et la portabilité. Un microcosme précoce du téléphone mobile était le PDA.

Ordinateur de bureau – 2000

Ordinateur portable – 2005

Ultrabook – 2012
Les images ci-dessus sont des simulations générées par IA
La révolution des PDA des années 1990 offre une perspective intéressante. Le temps étant limité, nous n'y entrerons pas ici en détail. Cependant, un examen de cette trajectoire peut offrir quelques analogies clés pour la future évolution des PC IA ou des NAS IA.
J'en ai discuté avec des collègues chez Lenovo. Leur pénétration précoce du marché impliquait déjà les navigateurs. En 2000, Lenovo a lancé un programme qui facilitait l'accès à Internet par modem, simplifiant la configuration et la connexion réseau, permettant à plus d'utilisateurs d'accéder à Internet. Cela les a aidés à conquérir rapidement le marché. Ensuite, l'ère des ordinateurs de marque est arrivée.
Une constante dans l'évolution des PC est la tendance vers la portabilité et la finesse, permettant aux individus d'accéder au monde numérique à tout moment et en tout lieu. Une autre tendance est le passage d'une production lourde initiale à une pénétration multi-scénarios. Alors, dans quels secteurs verticaux l'IA se concentrera-t-elle initialement ? Quand atteindra-t-elle une adoption généralisée ? Cela est étroitement lié à la puissance de calcul sous-jacente, au facteur de forme des appareils et à la maturité des systèmes d'exploitation — tous ces éléments sont interconnectés. Nous constatons que la seconde moitié de l'ère du PC incarne cette pénétration multi-scénarios.
Aujourd'hui, de nouvelles variables comme les GPU, TPU et le NPU intégré du RISC-V stimulent l'évolution des systèmes, et ces changements systémiques imprégneront la couche applicative. Quand le moment sera venu, de nombreuses applications natives d'IA intéressantes émergeront, rendant le Copilot local encore plus puissant. Cependant, il existe de nombreux éléments clés dans la chaîne industrielle, nécessitant une réflexion approfondie et une observation des changements chez les acteurs clés.
Facteurs changeants, tendances immuables
- 1. Portabilité : Du lourd au portable, une consommation d'énergie réduite et des appareils plus légers – réduisant considérablement le coût d'entrée dans le monde numérique.
- 2. Multi-scénarios : jeux, dessin, programmation et périphériques associés – élargissant significativement les frontières des applications numériques.
Quelle est la clé pour établir une nouvelle catégorie ? Appareils spécialisés vs. appareils informatiques polyvalents
Dans ce processus, j'ai réalisé une question intéressante : comment le matériel IA multi-forme d'aujourd'hui se compare-t-il au développement du PC par le passé ? Quelles innovations d'appareils seront absorbées par le PC, et lesquelles ne le seront pas ? Le PC dominait alors, tout comme les smartphones, ordinateurs portables et le cloud computing aujourd'hui. Alors, dans quels scénarios une divergence entre appareils spécialisés et polyvalents s'est-elle produite, ne se faisant finalement pas remplacer par un appareil unique et unifié ?
J'ai découvert que la console de jeu lancée par Nintendo en 1983 utilisait en fait la même puce que l'Apple I et II, mais elle est devenue un appareil spécialisé. À ce jour, acheter une PS5 ou une Xbox suit la même logique. Par conséquent, lorsqu'un scénario vertical présente une profondeur suffisante en besoins de calcul, exigences système et scénarios d'application, il peut former une catégorie indépendante d'appareils spécialisés. Le PDA de 1999 en est un autre exemple. Il utilisait des appareils relativement obsolètes et à faible consommation pour répondre au besoin d'un assistant numérique personnel. Bien que le PDA à l'époque n'était pas encore un téléphone, juste un outil à faible coût pour la gestion d'agenda et de contacts, il était beaucoup moins cher qu'un PC et occupait un petit écosystème d'appareils portables, ce qui peut être vu comme un prédécesseur du téléphone mobile. Mais il n'a pas été complètement remplacé par les ordinateurs portables ultérieurs ; au lieu de cela, le développement des téléphones mobiles l'a surpassé.
Entre 1980 et 2000, un appareil informatique unique et unifié est-il apparu dans l'industrie informatique ? Le mot-clé est « profondeur de scénario ».

NES – 1983
MOS Technology 6502

PDA – 1999
Motorola DragonBall 16 MHz
La frontière entre les appareils spécialisés et polyvalents nous pousse à réfléchir : quels matériels intelligents IA d'aujourd'hui seront absorbés par les téléphones IA, et lesquels divergeront indépendamment en nouvelles catégories comme les jouets IA ? En termes de profondeur de scénario et d'investissement en ressources, nous pouvons utiliser les consoles de jeux et les PDA comme analogies pour une réflexion approfondie.
En passant, les premiers processeurs 8 bits n'avaient pas des performances de calcul comparables aux processeurs ARM actuels ; ils étaient comparables au contrôleur d'affichage de votre réfrigérateur ou micro-ondes domestique. Un ordinateur de 1980 était essentiellement au niveau de calcul de votre réfrigérateur domestique. Le point est : avec le recul, ce n'était pas aussi puissant que les gens pourraient l'imaginer, mais cela a posé les bases de toute l'industrie du PC et du développement d'internet.
| Dimension de comparaison | PDA | PC en 1999 |
|---|---|---|
| Puissance de calcul | Processeur basse performance (par exemple, Motorola DragonBall 16 MHz), 2-16 Mo de RAM, espace de stockage limité ; capacités graphiques et multimédia faibles. | Processeur haute performance (par exemple, Intel Pentium III 500 MHz) ; 64-256 Mo de RAM, capacité de disque dur de 10-20 Go ; capacités puissantes de traitement graphique et multimédia. |
| Coût | Fourchette de prix : 200 $-600 $ ; Principalement pour la gestion d’informations personnelles (PIM), excellent rapport qualité-prix. |
Fourchette de prix : 1000 $-2000 $ ; Offre des fonctions informatiques complètes, large gamme d’applications, excellent rapport qualité-prix. |
| Consommation d'énergie | Conception basse consommation, alimenté par batterie ; Longue autonomie, consommation électrique de quelques centaines de milliwatts à quelques watts. |
Consommation électrique élevée, généralement 100-300 watts ; Nécessite une alimentation continue, faible portabilité. |
| Scénarios d’application | Gestion d’agenda, gestion des contacts, listes de tâches ; Traitement simple de texte, notes, e-mails ; met l’accent sur la portabilité et l’immédiateté. |
Travail de bureau (traitement de texte, tableurs) ; Divertissement (jeux, musique, films) ; Navigation Internet et communication, développement logiciel, design graphique, etc. |
| Portabilité | Petite taille, poids léger ; facile à transporter et à utiliser à tout moment, n’importe où. | Grande taille, poids lourd ; pour une utilisation en emplacement fixe, difficile à transporter. |
PC IA d’aujourd’hui, applications et nouvelles opportunités
Pour revenir au présent, bien que les éléments de la chaîne industrielle aient changé, ce qui reste inchangé est la demande des personnes pour la rétention, la production et la diffusion des données. À un niveau abstrait, les besoins des gens évoluent de l'opération GUI vers la nécessité d'un concurrent ou d'un agent intelligent pour compléter automatiquement du code ou des tâches. Ce qui reste constant devrait être le besoin d'acquérir et de stocker des informations. Avec la mise en œuvre de Copilot, les créateurs peuvent saisir un contexte et laisser la machine les aider à obtenir des scripts créatifs ou à comprendre ce que font leurs pairs.
Par exemple, une entreprise peut utiliser un agent pour suivre en temps réel toutes les innovations pertinentes de l'industrie et générer automatiquement des rapports hebdomadaires. Ces méthodes de rétention et d'acquisition des données de production deviendront plus intelligentes et plus performantes. Et le support pour cela sera certainement différent d'un PC traditionnel ; ce sera un dispositif informatique toujours allumé, en temps réel. Autrefois, les gens devaient utiliser une souris et une interface graphique pour être productifs ; mais lorsque l'intelligence est directement intégrée dans le dispositif informatique, il peut agir de manière autonome. Cela signifie que l'interaction homme-machine ne dépend plus d'une souris et d'un écran. Vous pouvez lui envoyer une tâche, et il peut la réaliser directement.
Et le processus pour y parvenir révèle un schéma que l'on peut observer dans le microcosme des 40 dernières années. Par conséquent, ces demandes sous-jacentes ont une cohérence ! La nouvelle productivité portée par GPT sera toujours dominée par des scénarios de productivité aux premiers stades, tout comme Lotus 1-2-3 à l'époque de DOS ! Nous pouvons nous appuyer sur cette base, ajouter de nouvelles variables de production et trouver des scénarios d'application précoces possibles. Combiné avec l'industrie du jeu, l'industrie du traitement d'images et les méthodes de production, d'acquisition et de diffusion des données mentionnées précédemment, nous pouvons théoriquement explorer toutes les possibilités.
Rétention : La machine acquiert des informations, fournit des recommandations personnalisées.
Production : Les modèles participent à la prise de décision et assistent dans le processus de production.
Diffusion : La machine gère automatiquement la distribution et la diffusion.
Nouveaux facteurs de production
Nous pouvons maintenant voir quatre nouveaux facteurs de production commencer à émerger : le développement des GPU et TPU, de nouveaux modèles de systèmes d'exploitation, la privatisation des données et la quantité de données utilisateur uniques détenues. Lorsque ces facteurs sont combinés, nous pourrions assister à la naissance d'un tout nouveau dispositif informatique « intégré calcul et stockage ». Sa position est différente de celle des téléphones mobiles, des ordinateurs portables et même du cloud public. Je vais essayer de lister clairement ses caractéristiques dans un tableau.
Données privées |
Grands modèles |
Puissance de calcul GPU/TPU |
Applications |
|
|
|
|
Auteur : Brian Kerrigan |
- Données privées : Les ressources de données propriétaires de haute qualité au sein d'une organisation ou les données acquises en privé par des machines sont des atouts clés pour la formation et l'optimisation des modèles IA.
- Capacité des grands modèles : La capacité à comprendre, générer et raisonner, adaptable à diverses tâches et scénarios.
- Puissance de calcul GPU ou ASIC : Matériel spécialisé haute performance pour l'inférence.
- Applications IA : Nouvelles applications basées sur les LLM intégrées dans divers scénarios.
Scénarios et opérateurs – Un tableau
| Comparaison | Téléphone mobile | Cloud privé | Cloud public |
|---|---|---|---|
| Application IA | Léger, copilote | Capacité d'inférence privée, Agent | OpenAI, Agent |
| Capacité des grands modèles | 3B | 7B – 100B | 405B |
| Performance informatique | Puce mobile, faible consommation 6W 20 TOPS |
GPU / ASIC, performance moyenne à élevée 200W 200 TOPS |
Cluster haute performance, mise à l'échelle élastique |
| Système d'Exploitation | Android, iOS Exécution à l'Exécution Accès Complet aux Données |
OS Cloud Privé Exécution de Tâches en Temps Réel Accès Complet aux Données |
Système Spécifique à une Plateforme Cloud Exécution de Tâches en Temps Réel Autorisation Partielle |
| Stockage de Données | 2TB | Capacité Extensible, des centaines de To | Capacité Extensible |
| Autonomie de la Batterie | Batterie Externe 12 Heures |
Branché ♾️ |
Branché ♾️ |
En raison des limitations de la durée de vie de la batterie, nous constatons que le calcul devient de plus en plus léger, ce qui a conduit aux téléphones mobiles et ordinateurs portables d'aujourd'hui. Par conséquent, la trajectoire du développement technologique a toujours été orientée vers la portabilité et la collaboration, qui sont des demandes à long terme des utilisateurs. Tout comme le développement du commerce électronique, les gens recherchent des marques de meilleure qualité et des expériences légères, désirant des batteries et des téléphones plus portables. Cependant, la puissance de calcul et la durée de vie de la batterie sont limitées par les contraintes d'énergie et de consommation, ce qui restreint le niveau d'intelligence des modèles pouvant fonctionner sur les appareils, généralement au niveau de 3 milliards de paramètres.
Cela signifie que lorsque Windows ou le système Android de nouvelle génération sera prêt, ils seront probablement basés sur des modèles de niveau 3B et Copilot, inspirant une nouvelle génération d'applications IA, telles que des navigateurs pilotés par IA, des outils de réponse aux e-mails, etc. L'espace pour ces applications est limité, mais elles resteront très intéressantes car elles ne peuvent exécuter que des modèles de niveau 3B en coulisses. C'est une étape que les téléphones mobiles et les ordinateurs portables devront inévitablement traverser car, du point de vue du procédé silicium, la puissance de calcul IA par watt ne changera pas rapidement de manière spectaculaire.
D'autre part, il y a le cloud computing pur. Mais le problème avec le cloud est : êtes-vous prêt à confier vos données provenant de plateformes comme Notion, Slack et Lark à un fournisseur de cloud ? Ou êtes-vous prêt à donner à un seul fournisseur de services cloud un accès complet à vos comptes Taobao, WeChat et financiers ? Cela implique évidemment un énorme coût psychologique de prise de décision. Par conséquent, le cloud existera au plus haut niveau, fournissant les capacités des modèles les plus intelligents via des appels API, pénétrant et couvrant les grandes entreprises.
Mais au milieu, une opportunité de construire un nouveau système d'exploitation a émergé. Ce système d'exploitation agira comme un support pour un agent intelligent, fonctionnant sur un appareil allumé 24 heures sur 24. Vous pouvez lui envoyer des tâches depuis votre téléphone ou votre ordinateur portable, et il les exécutera automatiquement en arrière-plan. Il dispose d'une énorme capacité de stockage de données, et comme il n'y a pas de contraintes de puissance de calcul, il peut être équipé d'un GPU de niveau cent watts, offrant environ 200 TOPS de puissance de calcul IA. L'itération des TPU et NPU réduira encore le coût de la puissance de calcul, similaire à l'évolution du premier processeur 8088.
Sur cette base, un modèle en temps réel, suffisamment intelligent, peut être construit pour servir tout le monde. Correspondant au présent, ce sont les grands modèles de niveau 7B à 100B que tout le monde publie, qui, après quantification, peuvent fonctionner entièrement sur une architecture de calcul à 200 TOPS. S'il y a un support système approprié, un écosystème riche d'applications d'agents intelligents émergera. Ces modèles au niveau système sont finement ajustés, ce que nous appelons souvent des modèles edge. Bien que la chaîne industrielle comporte de nombreux éléments, ce nouvel appareil a un positionnement clair. Tout comme l'ordinateur portable que vous achetez, vous pouvez vous connecter à divers comptes sans trop vous soucier des problèmes de sécurité des données, car c'est votre appareil informatique personnel. Il est assez intelligent pour vous servir 24 heures sur 24.
Créateurs, ingénieurs et travailleurs du savoir
![]() Créateurs |
![]() Freelances |
![]() Codeurs |
Mise à part les innovations en front-end comme les lunettes et les casques, en back-end, il est très probable qu'un appareil informatique personnel émerge, passant de la productivité à l'usage grand public. C'est un appareil qui passe du calcul pur à une intégration calcul-stockage. Aujourd'hui, la mobilité des données et la collaboration sont améliorées, tandis que la demande en puissance de calcul augmente également. Un appareil intégré calcul-stockage devient un support nécessaire pour un agent intelligent personnel.
Au départ, ces appareils peuvent se concentrer sur des groupes comme les créateurs, les ingénieurs et les travailleurs du savoir pour entrer sur le marché. Ils disposent généralement d'une grande quantité de données multimédias riches et de besoins en gestion d'actifs, et nécessitent des outils de productivité pour répondre à leurs points sensibles en matière de stockage et de collaboration. Cela ressemble au cheminement de pénétration des premiers PC, ciblant des utilisateurs prêts à payer et ayant une forte demande de productivité, entrant ainsi sur ce nouveau champ de bataille.
ZimaCube – Le cloud privé du créateur
Nous avons récemment mené d'autres entretiens avec de nombreux créateurs et professionnels du contenu, découvrant une gamme plus large de scénarios d'application. En fait, cette catégorie a un pipeline très long. L'approche de ZimaCube est plus proche de l'intégration verticale d'Apple, et nous devons repenser la manière de procéder à différentes étapes. Actuellement, le NAS (Network Attached Storage) sert de support pour l'IA. Il suit son propre processus itératif. Dans ce processus, nous réalisons la commercialisation grâce à l'intégration verticale des solutions de cloud privé des créateurs.
![]() |
![]() |
Le matériel n'est pas une barrière, mais le point de départ ; il doit posséder une certaine unicité. |
Le système et les applications servent le scénario. |
Le matériel est le point de départ ; tout commence par le matériel, mais ce sont les applications qui donnent de la valeur au scénario. Un écosystème d'applications ouvert peut nous aider à absorber diverses applications émergentes comme Lotus 1-2-3 auparavant. Nous n'avons pas besoin de nous précipiter pour investir beaucoup de ressources dans le développement d'applications ; au lieu de cela, nous devrions construire une plateforme et la promouvoir via des opérations communautaires.
Système et applications tierces

Rester ouvert, incorporer les applications grand public de la communauté LocalLLM, et construire un App Store avec documentation et standards d’application uniques.
La nécessité de combiner systèmes et communautés dans un contexte commercial global
Cependant, les produits hybrides matériel et logiciel sont effectivement difficiles à créer. Dans la Chine d’aujourd’hui, de nombreuses entreprises innovantes nécessitent des capacités doubles. En termes de capacités organisationnelles, d’une part, elles doivent suivre une approche « en cascade » pour la gestion et la production matérielle afin de contrôler les coûts et risques du matériel ; d’autre part, elles doivent construire une logique agile et itérative pour mettre à jour les systèmes logiciels sur une base hebdomadaire ou mensuelle.
Les communautés peuvent être un excellent vecteur pour alimenter les besoins et retours des utilisateurs mondiaux dans nos systèmes logiciels. Le matériel lui-même peut ne pas nécessiter de mises à jour fréquentes. Si vous vendez une batterie externe, les évaluations Amazon et la gestion en cascade peuvent compléter la définition du produit et un cycle de vente d’un an. Mais aujourd’hui, il existe peu de niches pour les entreprises créatives qui reposent uniquement sur l’approvisionnement matériel. La plupart des catégories dépendant des économies d’échelle sont dominées par des géants, et il n’existe pas de nouvelles structures de trafic capables d’élargir rapidement le marché.
Un défi universel : un appel à la prochaine génération de bâtisseurs de plateformes
L’histoire nous enseigne que chaque ère informatique est finalement définie par une ou quelques plateformes dominantes. Aujourd’hui, construire cette nouvelle plateforme est une opportunité et un défi partagés par tous les innovateurs à l’échelle mondiale. Cela requiert une capacité sans précédent et globale qui transcende les frontières :
Intégration profonde du matériel et du logiciel : Cela nécessite la fusion parfaite de la rigueur « en cascade » du développement matériel avec l’itération « agile » du logiciel. L’innovation réussie ne concerne plus seulement le matériel ou le logiciel, mais un « produit hybride » parfaitement intégré.
Co-construire des écosystèmes et des communautés : Tout comme le Homebrew Computer Club a déclenché la révolution du PC, les communautés open-source d’aujourd’hui (comme LocalLLM) sont les berceaux de la prochaine génération de « killer apps ». Un système fermé peut gagner un moment, mais seul un écosystème ouvert peut gagner l’avenir.
Par conséquent, la leçon ultime des années 1980 ne porte pas sur la géographie, mais sur la vision. Les vainqueurs de cette époque ont gagné non pas parce qu’ils étaient dans la Silicon Valley, mais parce qu’ils ont réussi à intégrer puces, systèmes et applications dans une plateforme qui a donné du pouvoir aux gens et inauguré une nouvelle ère.
Aujourd’hui, la scène est prête. Pour les entrepreneurs et investisseurs du monde entier, la vraie question n’est pas « où » innover, mais « comment » organiser efficacement les nouveaux facteurs de production — données privées, modèles d’IA et puissance de calcul accessible — en une nouvelle plateforme centrée sur l’humain qui libère la créativité. Ce n’est pas une performance solo d’un pays ou d’une région, mais un effort global qui nous concerne tous, visant à remodeler l’avenir de l’informatique.






















