Ce contenu provient d'une session de partage par IceWhale Technology au sein de FreeS Fund. Il vise à passer en revue les transformations clés, les tendances de développement, les événements critiques et les demandes constantes sous-jacentes des consommateurs dans l'industrie du PC de la Silicon Valley dans les années 1980. L'article est assez long, couvrant l'état des puces dans les années 1980, le début et la pénétration des PC, les changements dans les systèmes DOS et Windows 1.0 de 1980 à 1990, les premières applications phares du PC, et les scénarios de démarrage à froid. Nous espérons que vous le lirez patiemment, cherchant à inspirer vos décisions d'investissement et vos innovations produits dans le matériel et les applications d'IA.
En empruntant une citation de Ray Dalio de Bridgewater Associates :
L'idée que l'histoire humaine présente des schémas répétitifs est simplement une réalité. Peut-être que « cycle » n'est pas le bon mot pour cela, peut-être devrait-on parler d'un schéma, mais je pense que les deux décrivent le processus.
—— Ray Dalio
L'essor du PC, le processus d'informatisation et les quatre éléments clés
Musée de l'histoire de l'informatique, Silicon Valley des années 1980

Apple II – 1977
MOS Technology 6502, 8 bits, couleur, plus de 1200 $, 8 emplacements d'extension
Author: Rama
License: CC BY 2.0

Commodore 64 – 1982
595 $ -> 299 $
Author: Bill Bertram
License: Creative Commons Attribution-Share Alike 2.5
Aujourd'hui, alors qu'OpenAI, Google et Microsoft définissent « l'ère de l'intelligence » basée sur les grands modèles, revenons d'abord à la première « ère de l'information » construite par la naissance du PC en 1976. C'est à ce moment-là que l'Apple I est né. Cet ordinateur a été lancé par Steve Jobs et Steve Wozniak dans une communauté de passionnés appelée Homebrew Computer Club, au prix de 600 $. La sortie de l'Apple I dans ce club ressemblait beaucoup à un projet de financement participatif en ligne sur Kickstarter aujourd'hui. Il était destiné uniquement aux passionnés, nécessitait un assemblage manuel des pièces, et était vendu en kit… les premières ventes ne dépassaient guère 200 unités. Mais ce produit a posé les bases d'Apple, aidant Jobs et son équipe à accumuler leur premier groupe d'utilisateurs initiaux.
Peu de temps après, en 1977, Apple a lancé l'Apple II. Cette génération était non seulement plus raffinée en apparence, avec un affichage en couleur, mais comprenait aussi des emplacements d'extension et un boîtier intégré, facilitant l'expansion et le bricolage pour les passionnés. Cependant, les autres spécifications principales n'ont pas beaucoup changé. La sortie de l'Apple II fut une étape importante ; il était vendu à 1250 $, bien en dessous des ordinateurs commerciaux coûteux de l'époque.
Quatre ans plus tard, IBM, apparemment sous pression du marché, a dépêché une équipe réduite de 12 personnes pour lancer un projet nommé « Project Chess », affirmant sa position de leader de l'industrie. En tant qu'entreprise dominante, ils devaient naturellement faire une déclaration forte. Ils ont introduit l'IBM PC, basé sur un processeur Intel, et adopté une architecture matérielle ouverte. Cela a ouvert la porte à d'autres fabricants pour créer des appareils compatibles, ce qui a favorisé la formation de l'écosystème Wintel. La stratégie ouverte d'IBM a rapidement conduit à l'acceptation de sa norme PC par le marché.
Le Commodore 64 en 1982 est une autre entreprise à noter, bien qu'elle n'ait pas beaucoup progressé. Dans ses débuts, elle a correctement anticipé plusieurs stratégies clés. Elle offrait des performances graphiques et audio de pointe à un prix compétitif de 595 $, ce qui a été bien accueilli. En même temps, Commodore a donné la priorité à son expansion sur le marché européen, avec plus de la moitié de ses revenus provenant d'Europe. En tirant parti des réseaux de distribution locaux et de la publicité, elle a rapidement gagné en popularité, posant une base solide pour sa présence sur le marché mondial des ordinateurs personnels.
Tout comme aujourd'hui il existe de nombreux sous-canaux sur Reddit pour les grands modèles comme ChatGPT, LocalLLM et Stable Diffusion, aux débuts de chaque époque, un grand nombre de talents et d'idées proviennent des communautés en ligne et hors ligne. Cela n'est pas si étranger au monde actuel, car de nombreux géants de la tech fréquentaient les forums BBS à l'arrivée d'internet, avant de se disperser dans diverses industries. Aujourd'hui, la communauté autour des grands modèles dans les meilleures universités présente des caractéristiques similaires.
Mais ce qui est plus intéressant, c’est que ces clubs ont tendance à disparaître progressivement sur une décennie. Le schéma est que lorsqu'une nouvelle catégorie émerge, elle attire un groupe de passionnés très actifs dans la communauté, proposant diverses idées et créant même des prototypes de produits précoces. Lorsque les grandes entreprises interviennent et que l'innovation s'oriente vers la commercialisation, les idées initiales, issues de la communauté et ascendantes, mûrissent et prennent forme. Cependant, ces communautés ont souvent un « destin » : elles prospèrent énormément pendant les périodes d'innovation active, mais leur popularité décline à mesure que l'industrie mûrit et que les géants émergent. Le Homebrew Computer Club, ainsi que le développement de l'industrie actuelle des modèles, de l'impression 3D et des quadricoptères, suivent tous ce schéma de « boom et déclin ».
![]() Auteur : ZyMOS Creative Commons Attribution - Partage dans les Mêmes Conditions 4.0 |
L'Intel 8088 est un processeur classique sorti en 1979, utilisé dans l'IBM PC.
|
Deuxièmement, examinons les puces de cette époque, qui étaient la base de la catégorie PC. La définition d'un PC est indissociable de la baisse continue des coûts des puces et d'une puissance de calcul « juste suffisante ». Être adapté à l'usage et abordable a permis aux PC d'entrer sur le marché de masse. L'Intel 8088 en est un exemple typique. Le 8088 a ajusté la largeur du bus par rapport à son prédécesseur, le 8086, ce qui a réduit les coûts, lui permettant de devenir la puce centrale du PC IBM.
À cette époque, les équipements informatiques commerciaux et militaires principaux d'IBM étaient très grands et puissants, mais complètement « surdimensionnés » pour le marché personnel. Le 8088, en revanche, était un cran en dessous, offrant une puissance de calcul équilibrée à moindre coût, un peu comme les NAS (stockage en réseau) d'aujourd'hui qui simplifient les serveurs commerciaux en une taille et une puissance adaptées à un usage domestique, permettant aux particuliers d'avoir leurs propres petites solutions informatiques.
Si le H200 de NVIDIA est le leader commercial aujourd'hui, qui développe les puces ASIC qui permettront d'intégrer les modèles dans divers terminaux informatiques comme les PC IA ou les NAS IA ?
L'évolution des systèmes – Chaque génération vante son « interface utilisateur conviviale »
Tout comme chaque entreprise aujourd'hui prétend avoir un « système intelligent »

Auteur : Vadim Rumyantsev
domaine public
Passionnés de technologie, petites entreprises
Interface en ligne de commande

Auteur : leighklotz
Creative Commons Attribution 2.0 Generic
Utilisateurs d'entreprise
Premier à introduire une interface graphique ; un article de luxe au prix de 16 595 $…

Auteur : Eric Chan de Hong Kong
Creative Commons Attribution 2.0
Consommateurs de masse, professionnels créatifs, éducation
Adoption généralisée de l'interface graphique (GUI)
DOS – Système d'Exploitation sur Disque
Troisièmement, examinons les premiers systèmes d'exploitation. Tout comme les gens « affinent » les modèles aujourd'hui, c'était essentiellement quelque chose que seuls les ingénieurs pouvaient bricoler. Vers 1978-79, environ dix mille ingénieurs dans la Silicon Valley travaillaient avec des systèmes DOS, qui étaient entièrement basés sur la ligne de commande sans interface graphique. À ce stade, les systèmes d'exploitation étaient loin de pénétrer l'usage quotidien des entreprises et du grand public, un peu comme les modèles d'IA aujourd'hui, qui sont encore entre les mains d'un groupe de passionnés de technologie.
Ce n’est qu’en 1981, avec le lancement du premier PC d’IBM, que le système DOS a progressivement gagné en attention, mais il s’agissait encore d’une version en ligne de commande sans interface graphique. Par conséquent, les scénarios informatiques de l’époque étaient très similaires à ceux de l’IA aujourd’hui : ils nécessitaient un grand nombre de passionnés de technologie et d’ingénieurs pour ajuster et intégrer de manière répétée afin d’atteindre des applications spécifiques. Ce qui a vraiment amené les PC et les systèmes d’exploitation au niveau des entreprises fut l’interface utilisateur graphique (GUI) du Xerox Star, qui a lancé la première véritable vague d’expansion des utilisateurs.
En 1984, le système d’interface graphique lancé par Apple a élargi la base d’utilisateurs aux domaines créatifs, éducatifs et autres secteurs professionnels, ouvrant lentement la voie à l’application massive des systèmes d’exploitation. Cependant, durant cette période, les systèmes DOS et GUI ont coexisté longtemps, les entreprises maintenant deux systèmes distincts pour répondre à différents besoins.
L’écosystème applicatif du début des années 1980, ce que nous appelons aujourd’hui les « killer apps »
|
Lotus 1-2-3 – 1982
Auteur : Odacir Blanco |
WordPerfect – 1985
Licence : Domaine public |
Quatrièmement, l’écosystème applicatif qui s’est développé progressivement parallèlement aux capacités du système et du matériel ! Voici quelques applications représentatives et un aperçu de leur chemin de pénétration dans la révolution de la productivité sur PC.
Dans ces premiers systèmes d’interface utilisateur, le marché n’avait pas encore atteint une échelle grand public et était principalement composé de scénarios de productivité. Certaines applications ont commencé à se démarquer, comme Lotus 1-2-3, un célèbre logiciel de gestion financière et une version précoce d’Excel. WordPerfect, sorti en 1985, était principalement utilisé dans les domaines juridique et académique. Cependant, ces opérations d’édition ne se faisaient pas via une interface graphique soignée mais reposaient sur la ligne de commande DOS. Les travailleurs du savoir devaient apprendre les commandes correspondantes pour accomplir leurs tâches d’édition.
Dans le domaine de la recherche académique, l'utilisation des PC pour la numérisation de documents et la collaboration a apporté d'énormes gains d'efficacité. Ainsi, dès 1988, le taux de pénétration des PC dans le milieu académique était très élevé pour des scénarios comme le transfert de fichiers, la communication par email et la rédaction de textes. Cependant, ce n’est qu’en 1989, avec l’amélioration de la puissance de calcul des CPU et des capacités de traitement des interfaces graphiques (GUI), que cela a commencé à avoir un impact majeur sur des industries comme l'impression et le design publicitaire. C’est un peu comme aujourd’hui ; bien qu’OpenAI ait publié un modèle vidéo mondial, il n’a pas été rapidement appliqué à des scénarios pratiques car la maturation des ressources informatiques et de la technologie GUI prend du temps.
|
CorelDRAW – 1989
Graphistes, industrie de l'impression |
Quicken – 1984
Utilisateurs personnels, petites entreprises |
Flight Simulator – 1985
Passionnés d'aviation, étudiants |
Aux débuts d'une nouvelle plateforme informatique, l'innovation applicative qui s'immerge profondément dans des scénarios verticaux conserve une immense valeur pour l'industrie. Si nous faisons une analogie avec le présent, je crois que l'année prochaine, lorsque la puissance de calcul TPU dans les PC sera prête et que Windows, en tant que système d'exploitation intermédiaire standard, pourra fournir une puissante puissance de calcul IA pour les applications de niveau supérieur, une nouvelle vague d'applications PC liées à l'IA, similaires à Copilot, émergera, fonctionnant directement en périphérie.
Dans ce contexte, Quicken a approfondi l'expérience dans les scénarios professionnels basés sur Lotus. Il a amélioré l'interface d'interaction et la configurabilité du système DOS d'origine, se développant en profondeur pour répondre aux besoins de gestion financière et des petites entreprises. Cela a donné à ces premières applications un bon espace de survie.
Cependant, les prix de ces applications étaient assez élevés. Par exemple, Lotus 1-2-3 était vendu près de 500 $, ce qui représentait une solution très coûteuse en 1985. Cela indique que les premiers scénarios de productivité étaient principalement portés par des consommateurs disposant d'un fort pouvoir d'achat.
De plus, il y avait quelques jeux et simulateurs pour les passionnés, comme « Flight Simulator » sur Windows, qui offraient des fonctionnalités produits plus diversifiées et légères, attirant de nouveaux utilisateurs aimant explorer et expérimenter. Ainsi, on peut voir que l'écosystème PC initial s'est construit grâce à une combinaison d'outils de productivité lourds, d'une pénétration dans les petites et moyennes entreprises, la recherche industrielle et académique, ainsi que quelques applications innovantes intéressantes. Cependant, la chronologie de ce processus a été très longue car les technologies sous-jacentes DOS et GUI évoluaient relativement lentement.
Plus précisément, les éditeurs d'applications comme Lotus ont joué un rôle clé. Ils n'étaient pas des fournisseurs de systèmes d'exploitation ; ces derniers se concentraient sur la fiabilité, la planification des ressources et la scalabilité du système. Sur la période de 8 à 9 ans entre 1982 et 1990, Lotus a saisi l'opportunité de combler un vide sur le marché. Apple et Microsoft n'ont commencé à sortir leurs suites Office complètes qu'à partir des années 1990, offrant ainsi à ces applications au niveau système un avantage de marché de 7 à 8 ans. Ils ont tiré parti de la popularité du PC IBM et du système DOS pour pénétrer rapidement les utilisateurs d'entreprise, la comptabilité financière et d'autres domaines. Ces utilisateurs avaient de forts besoins en traitement de données, et la combinaison des nouveaux ordinateurs et du logiciel Lotus a permis une pénétration complète dans ces scénarios.
Windows 1.0 et le discours de vente « fou » de Ballmer
En 1985, la part de marché de Lotus avait déjà dépassé 50 %. Face à son prix élevé de 495 $, il n’est pas difficile de comprendre pourquoi Steve Ballmer, en promouvant Windows 1.0, insistait : « Nous proposons un jeu d’échecs, un tableur et un traitement d’images pour seulement 99 $, pas 500 ou 600 $. » À cette époque, le prix des logiciels était un argument de vente très attractif en marketing. Lors de la vente du système d’exploitation, des logiciels graphiques spécialisés comme CorelDRAW, un peu similaires au futur Photoshop, offraient aux utilisateurs des fonctions professionnelles de traitement d’images.
Lotus 1-2-3
Entreprise : Lotus Development Corporation
Contexte : Lotus 1-2-3 a été développé par Lotus Development Corporation, fondée par Mitch Kapor en 1982. Lotus 1-2-3 fut le premier logiciel pour IBM PC à offrir des fonctions intégrées de tableur, graphisme et gestion de base de données, devenant rapidement l’un des logiciels applicatifs les plus populaires, notamment auprès des entreprises.
Profil utilisateur : Les principaux utilisateurs étaient des entreprises, en particulier des analystes financiers, comptables et managers. Ces utilisateurs avaient généralement un certain niveau de connaissances techniques et étaient très sensibles aux données.
Principaux cas d’utilisation : Utilisé pour la gestion des données, la modélisation financière complexe, la budgétisation, la génération de rapports et diverses autres formes d’analyse de données. Les fonctionnalités puissantes de Lotus 1-2-3 en ont fait le choix numéro un pour les tableurs en entreprise.
1983: Lotus 1-2-3 a été lancé et est rapidement devenu le leader du marché, notamment sur les compatibles IBM PC.
1985: La part de marché a dépassé 50 %, avec un prix de 495 $.
CorelDRAW
Entreprise : Corel Corporation
Contexte : À la fin des années 1980, avec la popularisation des interfaces graphiques (GUI) et des ordinateurs personnels (PC), les marchés du design graphique et de la publication assistée par ordinateur ont connu une croissance rapide. Les processus de design traditionnels (dessin manuel et composition typographique) ont commencé à passer au numérique.
Profil utilisateur : Avaient une certaine connaissance du design graphique informatique, sans être nécessairement des experts techniques.
- Designers et illustrateurs professionnels : Avaient besoin d’outils précis de dessin vectoriel pour créer des illustrations, logos et autres travaux de design.
- Professionnels de la publication assistée par ordinateur (PAO) : Devaient combiner texte et graphismes pour produire des livres, magazines, supports promotionnels, etc.
- Petites et moyennes entreprises et travailleurs indépendants : Utilisaient CorelDRAW pour créer des logos d’entreprise, des publicités et des supports marketing sans matériel et logiciel de design dédiés coûteux.
1989: CorelDRAW 1.0 fut le premier logiciel à combiner conception graphique vectorielle et fonctions de publication assistée par ordinateur, et son lancement a mené une révolution dans le domaine du design graphique. Cette version supportait des fonctionnalités comme les pages multiples, l’édition de courbes et le traitement de texte.
De MS-DOS 1.0 acquis à Windows + Office
| Temps | Titre | Détails |
|---|---|---|
| 1981 | MS-DOS 1.0 | Partenariat confirmé avec IBM |
| 1982 | MS-DOS 1.25 | Licencié à des marques compatibles tierces |
| 1983 | MS-DOS 2.0 Microsoft Word |
Fonctionnalités système améliorées Support des disques durs et des structures de répertoires |
| 1985 | Windows 1.0 | Ajout d’une interface graphique au-dessus de Microsoft MS-DOS |
| 1987 | Windows 2.0 | Meilleur support graphique et performance Fenêtres superposées et raccourcis clavier |
| 1988 | MS-DOS 4.0 | A introduit l’interface graphique DOS Shell |
| 1989 | Microsoft Office | Fournissait une intégration d’automatisation de bureau pour Windows |
L’ascension de Microsoft n’était peut-être pas due à ses produits initiaux, mais à sa stratégie commerciale excellente. Dès le début, Microsoft a montré un sens aigu des affaires en acquérant un système d’exploitation tiers appelé 86-DOS [oui, ils l’ont acheté…]. Ce mouvement en a fait un partenaire important pour IBM. Mais de manière surprenante, Microsoft s’est rapidement étendu dès la deuxième année, en coopérant avec d’autres fabricants de matériel, un peu comme après que Tesla a défini les normes de l’industrie aujourd’hui, de nombreuses entreprises ont suivi, stimulant tout l’écosystème ODM et l’établissement des normes AIPC.
Après que Microsoft a défini la norme, les fabricants de matériel ont commencé à agir. En revenant à la piste actuelle des PC IA et aux applications IA en périphérie, nous verrons un grand nombre d’ordinateurs portables avec une puissance de calcul IA de 40 TOPS arriver sur le marché, et Qualcomm fait des mouvements similaires. Cela apporte de nouvelles variables : d’une part, le matériel est amélioré, et d’autre part, l’importance du système d’exploitation dans la couche intermédiaire est mise en avant. Le système d’exploitation doit allouer efficacement les 40 TOPS de ressources de calcul pour répondre aux besoins de nombreuses applications de couche supérieure. Microsoft a investi massivement dans le développement du système d’exploitation, ne laissant pas de temps pour rivaliser longtemps avec Lotus ou WordPerfect.
Ce n’est qu’à la troisième année que Microsoft a commencé à imiter WordPerfect [le système intègre les applications clés], et cela a continué jusqu’en 1989. Pendant huit ans, Microsoft a consolidé sa couverture de licences tierces pour le système et a commencé à vendre Windows 1.0 indépendamment en 1985. Il est important de noter que Windows 1.0 a été lancé quatre ans entiers après le système GUI de Xerox, ce qui montre la longue durée du développement des systèmes d’exploitation. Les premières versions de Windows étaient principalement fournies avec des périphériques matériels, avec des ventes atteignant des dizaines de milliers d’unités dans les deux à trois premières années, et un cumul de cinq à six millions d’unités expédiées en huit ans.
La révolution de la productivité contre chaque foyer
À cette époque, le marché principal des PC ne se limitait pas à l’Amérique du Nord ; les pays développés d’Europe importaient aussi ces appareils par voie maritime. La base d’utilisateurs se concentrait principalement sur des scénarios de productivité intensive. Ce n’est qu’en 1989, avec l’émergence d’applications comme le traitement d’image, que de nouveaux cas d’usage ont été stimulés. Même avec le lancement des systèmes à interface graphique, ils n’ont pas immédiatement pénétré le marché grand public. L’entrée réelle dans les foyers ordinaires s’est produite vers 1994, avec la montée du navigateur Netscape et d’Internet, lorsque de plus en plus de personnes utilisant un ordinateur au travail ont commencé à en acheter pour leur domicile.
Cette trajectoire d’évolution technologique, d’une révolution de la productivité à une explosion grand public, est clairement visible à l’ère du PC. Aujourd’hui, l’information se diffuse rapidement, et la capacité de l’IA à renforcer chaque scénario consommateur reste à vérifier avec le temps. Aux premiers stades, il faudra peut-être accorder plus d’attention aux changements du côté de la production et de l’approvisionnement.
Un autre facteur clé est l’évolution de l’interaction homme-machine. L’introduction de la souris a créé un nouveau mode d’interaction homme-machine, qui a grandement influencé la pénétration des PC. De même, nous pouvons réfléchir à la structure actuelle en regardant la trajectoire de développement de Microsoft. Si aujourd’hui OpenAI valide la possibilité d’un système d’exploitation IA dans le cloud, alors en périphérie, sans le support d’un système d’exploitation, les applications de niveau supérieur auront du mal à se développer. Lorsque le système d’exploitation et le matériel réaliseront des avancées clés, les applications en aval pourraient connaître une croissance explosive.
Aujourd’hui, nous interagissons via le langage naturel et les flux vidéo, et ces nouvelles variables influenceront également les scénarios d’application de l’IA. Pour résumer brièvement, la raison pour laquelle Microsoft a mis de 1981 à 1989 pour développer DOS et l’interface graphique en parallèle était qu’ils devaient être compatibles avec un grand nombre de périphériques matériels. Cela explique aussi pourquoi Steve Jobs méprisait autrefois le système Windows, le jugeant complexe et peu esthétique. Cependant, d’un point de vue commercial, Microsoft a avancé prudemment : de l’acquisition du code au lancement d’une interface graphique, jusqu’à la sortie d’Office huit ans après Lotus, ils ont consolidé leur position dans l’écosystème de toutes les manières possibles.
Un aperçu de l’architecture actuelle de Windows à travers le prisme de Windows NT
![]() Diagramme de l’architecture Windows NT avec composants traduits |
|
Résumé des quatre éléments – Voir les variables et les demandes constantes
Puces, Système, Applications et Périphériques
|
Stockage/Calcul
Pilote |
Système
Fondation |
Application
Valeur utilisateur |
Produit
Véhicule |
Dans ce processus, plusieurs éléments clés méritent d'être notés. Le premier est l'évolution des unités de stockage et de calcul. Bien que les coûts des premiers puces et du stockage aient diminué, ils n'ont pas chuté de manière significative, ce qui est lié à l'avancement de la loi de Moore. Aujourd'hui, le déploiement de l'informatique en périphérie est aussi dû au fait que le développement technologique a atteint un certain point de basculement.
Deuxièmement, le système d'exploitation, en tant que middleware important, assume des tâches clés telles que la gestion des ressources et l'adaptation des périphériques. Bien que les premiers systèmes n'étaient pas puissants, leur importance était évidente.
Troisièmement, les premières applications phares pouvaient générer des revenus, mais si elles n'étaient pas développées en profondeur, elles pouvaient finalement être remplacées [ce que l'on appelle aujourd'hui souvent les scénarios verticaux, nécessitant de la profondeur]. La question de savoir si les éditeurs d'applications peuvent s'enfoncer jusqu'à la couche du système d'exploitation reste à méditer.
En fin de compte, la valeur est captée par un véhicule commercial. Au début, les gens achetaient le matériel comme véhicule, mais avec l'établissement des plateformes système, l'importance du matériel a relativement diminué. À l'ère où « la plateforme est reine », le système d'exploitation non seulement partageait la valeur mais favorisait aussi un écosystème d'applications riche. Ce phénomène a également été vérifié à l'ère de l'internet mobile.
Nous pouvons associer ces quatre éléments — matériel, système d'exploitation, applications et interaction homme-machine — au développement actuel de l'IA. Du côté de l'offre, nous devons réfléchir à pourquoi les gens ont besoin d'ordinateurs et pourquoi ils ont besoin de modèles d'IA. La demande constante est pour un stockage et une édition efficaces et pratiques de l'information. Chaque génération d'appareils informatiques cherche une interaction homme-machine plus naturelle et plus facile, ce qui est un thème éternel.
Enfin, la diffusion et le partage de l'information sont également des facteurs importants qui stimulent le développement technologique. De l'email précoce aux navigateurs ultérieurs, l'évolution des méthodes de diffusion a répondu aux besoins profonds des gens en matière de numérisation. Aujourd'hui, nous croyons généralement que nous sommes dans une vague d'intelligence, tout comme lors de la révolution de l'information passée, et nous pouvons utiliser les schémas historiques pour faire des analogies et réfléchir aux directions futures.
- Couche fondation technologique (clé du stockage/calcul) : Le développement des technologies matérielles de base telles que les processeurs (puissance de calcul) et le stockage (supports de stockage).
- Couche plateforme : La plateforme de base du PC, fournissant des interfaces avec le matériel et un environnement d'exécution pour les applications de couche supérieure.
- Couche applicative : Les logiciels applicatifs sont la principale motivation pour les utilisateurs d'acheter des PC et un facteur important pour attirer les utilisateurs vers une certaine plateforme.
- Véhicule de transaction : Les produits matériels sont les dispositifs physiques que les utilisateurs finaux achètent, disponibles pour que les utilisateurs choisissent et achètent.
Demande – Numérisation :
- Conservation : Un support pratique pour stocker l'information de manière permanente.
- Production : Le besoin constant d'efficacité dans le traitement de texte, des données, des images et de l'information dans les scénarios de productivité.
- Diffusion : L'efficacité de la collaboration.
Événements clés et tendances après 1990
| Année | Événement | Description |
|---|---|---|
| 1993 | Sortie du processeur Intel Pentium | Amélioration significative des performances et de l'efficacité des processeurs |
| 1998 | Windows 98 et norme USB 1.1 | A rendu les périphériques externes plug-and-play |
| 2000 | Intel Pentium 4 | Ordinateur de bureau haute performance |
| 2003 | Explosion des applications Internet | MySpace et Facebook, Amazon et eBay |
| 2005 | Les ventes d'ordinateurs portables dépassent pour la première fois celles des ordinateurs de bureau | Plateforme Intel Centrino, intégrée avec des processeurs basse consommation |
| 2007 | L'essor des netbooks | Apparition des netbooks basés sur les processeurs Intel Atom |
| 2011 | Ultrabook | Concept d'ultrabook, ordinateur portable vs tablette |
| 2018 | Smartphone | A remplacé d'autres appareils pour devenir l'informatique mobile principale |
Le tableau ci-dessus montre clairement des informations très intéressantes ! Entrant dans les années 1990, nous avons accueilli la sortie du processeur Intel Pentium, l'explosion des applications internet, la naissance de Windows 98, et l'apparition de l'USB 1.1, des netbooks et des ultrabooks. Cette série d'innovations technologiques dessine la tendance immuable dans le développement des ordinateurs — internet est véritablement entré dans chaque foyer.
Pendant cette période, les processeurs sont devenus encore plus légers, et l'avènement de l'USB 1.1 a rendu l'expansion des périphériques plus pratique, facilitant la connexion d'appareils comme les souris. L'essor d'internet a conduit un grand nombre de consommateurs à commencer à utiliser des dispositifs informatiques personnels. Il est important de noter que le développement du PC montre une tendance claire : la légèreté et la portabilité. Un microcosme précoce du téléphone mobile était l'Assistant Personnel (PDA).

Ordinateur de bureau – 2000

Ordinateur portable – 2005

Ultrabook – 2012
Les images ci-dessus sont des simulations générées par IA
La révolution des PDA des années 1990 offre une perspective intéressante. Le temps étant limité, nous n’y entrerons pas ici. Cependant, un retour sur cette trajectoire peut offrir quelques analogies clés pour la future évolution des PC IA ou des NAS IA.
J’en ai discuté avec des collègues chez Lenovo. Leur pénétration précoce du marché impliquait déjà les navigateurs. En 2000, Lenovo a lancé un programme facilitant l’accès à Internet par modem, simplifiant la configuration et la connexion réseau, permettant à plus d’utilisateurs d’accéder à Internet. Cela les a aidés à conquérir rapidement le marché. Puis est arrivée l’ère des ordinateurs de marque.
Une constante dans l’évolution des PC est la tendance vers la portabilité et la finesse, permettant aux individus d’accéder au monde numérique à tout moment et en tout lieu. Une autre tendance est le passage d’une production lourde initiale à une pénétration multi-scénarios. Alors, dans quels secteurs verticaux l’IA se concentrera-t-elle initialement ? Quand atteindra-t-elle une adoption généralisée ? Cela est étroitement lié à la puissance de calcul sous-jacente, au facteur de forme de l’appareil et à la maturité du système d’exploitation – tous ces éléments sont interconnectés. Nous constatons que la seconde moitié de l’ère du PC incarne cette pénétration multi-scénarios.
Aujourd’hui, de nouvelles variables comme les GPU, TPU et le NPU intégré de RISC-V stimulent l’évolution des systèmes, et ces changements systémiques vont imprégner la couche applicative. Quand le moment sera venu, de nombreuses applications natives IA intéressantes émergeront, rendant le Copilot local encore plus puissant. Cependant, il existe de nombreux éléments clés dans la chaîne industrielle, nécessitant une réflexion approfondie et une observation des évolutions des acteurs majeurs.
Facteurs changeants, tendances immuables
- 1. Portabilité : du lourd au portable, consommation d’énergie réduite et appareils plus légers – réduisant significativement le coût d’entrée dans le monde numérique.
- 2. Multi-scénarios : jeux, dessin, programmation et périphériques associés – élargissant considérablement les frontières des applications numériques.
Quelle est la clé pour établir une nouvelle catégorie ? Appareils spécialisés vs appareils informatiques à usage général
Dans ce processus, j’ai réalisé une question intéressante : comment le matériel IA multi-forme d’aujourd’hui se compare-t-il au développement des PC du passé ? Quelles innovations des appareils seront absorbées par le PC, et lesquelles ne le seront pas ? Le PC était alors si dominant, tout comme les smartphones, les ordinateurs portables et le cloud computing le sont aujourd’hui. Alors, dans quels scénarios une divergence entre appareils spécialisés et appareils à usage général s’est-elle produite, sans être finalement remplacée par un appareil unique et unifié ?
J'ai découvert que la console de jeu lancée par Nintendo en 1983 utilisait en fait la même puce que l'Apple I et II, mais elle est devenue un appareil spécialisé. À ce jour, acheter une PS5 ou une Xbox suit la même logique. Ainsi, lorsqu'un scénario vertical présente une profondeur suffisante en besoins informatiques, exigences système et scénarios d'application, il peut former une catégorie indépendante d'appareils spécialisés. Le PDA de 1999 en est un autre exemple. Il utilisait des appareils relativement anciens et peu puissants pour répondre au besoin d'assistant numérique personnel. Bien que le PDA de l'époque n'était pas encore un téléphone, juste un outil peu coûteux pour la gestion d'agenda et de contacts, il était beaucoup moins cher qu'un PC et occupait un petit écosystème d'appareils portables, ce qui peut être vu comme un précurseur du téléphone mobile. Mais il n'a pas été complètement remplacé par les ordinateurs portables ultérieurs ; au contraire, le développement des téléphones mobiles l'a dépassé.
Entre 1980 et 2000, un appareil informatique unique et unifié est-il apparu dans l'industrie informatique ? Le mot-clé est « profondeur de scénario ».

NES – 1983
MOS Technology 6502

PDA – 1999
Motorola DragonBall 16 MHz
La frontière entre les appareils spécialisés et polyvalents nous invite à réfléchir : quels matériels intelligents IA d'aujourd'hui seront absorbés par les téléphones IA, et lesquels divergeront indépendamment en nouvelles catégories comme les jouets IA ? En termes de profondeur de scénario et d'investissement en ressources, nous pouvons utiliser les consoles de jeu et les PDA comme analogies pour une réflexion approfondie.
Pour information, les premiers processeurs 8 bits avaient des performances de calcul bien inférieures à celles des processeurs ARM actuels ; ils étaient comparables au contrôleur d'affichage de votre réfrigérateur ou micro-ondes domestique. Un ordinateur de 1980 était essentiellement au niveau de calcul de votre réfrigérateur. L'essentiel est : rétrospectivement, ce n'était pas aussi puissant qu'on pourrait l'imaginer, mais cela a posé les bases de toute l'industrie du PC et du développement d'internet.
| Dimension de comparaison | PDA | PC en 1999 |
|---|---|---|
| Puissance de calcul | Processeur basse performance (par exemple, Motorola DragonBall 16 MHz), 2-16 Mo de RAM, espace de stockage limité ; capacités graphiques et multimédia faibles. | Processeur haute performance (par exemple, Intel Pentium III 500 MHz) ; 64-256 Mo de RAM, 10-20 Go de capacité disque dur ; capacités puissantes de traitement graphique et multimédia. |
| Coût | Fourchette de prix : 200 $ - 600 $ ; Principalement pour la gestion personnelle de l'information (PIM), excellent rapport qualité-prix. |
Fourchette de prix : 1000 $ - 2000 $ ; Offre des fonctions informatiques complètes, une large gamme d'applications, un excellent rapport qualité-prix. |
| Consommation d’énergie | Conception basse consommation, alimenté par batterie ; Longue autonomie, consommation de quelques centaines de milliwatts à quelques watts. |
Consommation électrique élevée, généralement 100-300 watts ; Nécessite une alimentation continue, faible portabilité. |
| Scénarios d’application | Gestion d’agenda, gestion de contacts, listes de tâches ; Traitement simple de texte, notes, courriels ; met l’accent sur la portabilité et l’immédiateté. |
Travail de bureau (traitement de texte, tableurs) ; Divertissement (jeux, musique, films) ; Navigation internet et communication, développement logiciel, design graphique, etc. |
| Portabilité | Petite taille, poids léger ; facile à transporter et à utiliser à tout moment, n’importe où. | Grande taille, poids élevé ; usage en emplacement fixe, difficile à transporter. |
PC IA d’aujourd’hui, applications et nouvelles opportunités
Pour revenir au présent, bien que les éléments de la chaîne industrielle aient changé, ce qui reste inchangé est la demande des personnes pour la conservation, la production et la diffusion des données. À un niveau abstrait, les besoins évoluent de l’utilisation d’interfaces graphiques vers la nécessité d’un concurrent ou d’un agent intelligent pour compléter automatiquement du code ou des tâches. Ce qui reste constant, c’est le besoin d’acquérir et de stocker l’information. Avec la mise en œuvre de Copilot, les créateurs peuvent fournir un contexte et laisser la machine les aider à obtenir des scripts créatifs ou comprendre ce que font leurs pairs.
Par exemple, une entreprise peut utiliser un agent pour suivre en temps réel toutes les innovations pertinentes de son secteur et générer automatiquement des rapports hebdomadaires. Ces méthodes de conservation et d'acquisition des données de production deviendront plus intelligentes et plus performantes. Et le support pour cela sera forcément différent d’un PC traditionnel ; ce sera un appareil informatique toujours allumé, en temps réel. Autrefois, il fallait utiliser une souris et une interface graphique pour être productif ; mais lorsque l’intelligence est directement intégrée dans l’appareil informatique, il peut agir de manière autonome. Cela signifie que l’interaction homme-machine ne dépend plus d’une souris ni d’un écran. Vous pouvez lui confier une tâche, et il peut la réaliser directement.
Et le processus pour y parvenir révèle un schéma que l'on peut observer dans le microcosme des 40 dernières années. Par conséquent, ces exigences sous-jacentes ont une cohérence ! La nouvelle productivité portée par GPT sera toujours dominée par des scénarios de productivité dans les phases initiales, tout comme Lotus 1-2-3 à l'époque de DOS ! Nous pouvons nous appuyer sur cette base, ajouter de nouvelles variables de production, et trouver des scénarios d'application précoces possibles. Combiné avec l'industrie du jeu vidéo, le traitement d'image, et les méthodes de production, d'acquisition et de diffusion des données mentionnées précédemment, nous pouvons théoriquement explorer toutes les possibilités.
Rétention : La machine acquiert des informations, fournit des recommandations personnalisées.
Production : Les modèles participent à la prise de décision et assistent dans le processus de production.
Diffusion : La machine gère automatiquement la distribution et la diffusion.
Nouveaux Facteurs de Production
Nous pouvons désormais observer l’émergence de quatre nouveaux facteurs de production : le développement des GPU et TPU, les nouveaux modèles de systèmes d’exploitation, la privatisation des données et la quantité de données utilisateur uniques détenues. Lorsque ces facteurs sont combinés, nous pourrions assister à la naissance d’un tout nouveau dispositif informatique « intégré calcul et stockage ». Sa position est différente de celle des téléphones mobiles, ordinateurs portables, et même du cloud public. Je vais essayer d’en lister clairement les caractéristiques dans un tableau.
Données Privées |
Grands Modèles |
Puissance de Calcul GPU/TPU |
Applications |
|
|
|
|
Auteur : Brian Kerrigan |
- Données Privées : Ressources de données propriétaires de haute qualité au sein d’une organisation ou données acquises en privé par des machines, sont des atouts clés pour entraîner et optimiser les modèles IA.
- Capacité des Grands Modèles : Capacité à comprendre, générer et raisonner, adaptable à diverses tâches et scénarios.
- Puissance de Calcul GPU ou ASIC : Matériel spécialisé haute performance pour l’inférence.
- Applications IA : Nouvelles applications basées sur les LLM intégrées dans divers scénarios.
Scénarios et Supports – Un Tableau
| Comparaison | Téléphone Mobile | Cloud Privé | Cloud Public |
|---|---|---|---|
| Application IA | Léger, Copilote | Capacité d’Inférence Privée, Agent | OpenAI, Agent |
| Capacité des Grands Modèles | 3B | 7B – 100B | 405B |
| Performance de Calcul | Puce Mobile, Faible Consommation 6W 20 TOPS |
GPU / ASIC, Performance Moyenne à Élevée 200W 200 TOPS |
Cluster Haute Performance, Mise à l’Échelle Élastique |
| Système d’Exploitation | Android, iOS Exécution en Temps Réel Accès Complet aux Données |
Système d’Exploitation Cloud Privé Exécution de Tâches en Temps Réel Accès Complet aux Données |
Système Spécifique à une Plateforme Cloud Exécution de Tâches en Temps Réel Autorisation Partielle |
| Stockage de Données | 2TB | Capacité Extensible, Des centaines de To | Capacité Extensible |
| Autonomie de la Batterie | Batterie Externe 12 Heures |
Branché ♾️ |
Branché ♾️ |
En raison des limitations de la durée de vie de la batterie, nous constatons que l'informatique devient de plus en plus légère, ce qui a conduit aux téléphones mobiles et ordinateurs portables d'aujourd'hui. Par conséquent, la trajectoire du développement technologique a toujours été orientée vers la portabilité et la collaboration, qui sont des demandes à long terme des utilisateurs. Tout comme le développement du commerce électronique, les gens recherchent des marques de meilleure qualité et des expériences légères, souhaitant des batteries et des téléphones plus portables. Cependant, la puissance de calcul et l'autonomie des batteries sont limitées par les contraintes d'énergie et de consommation, ce qui restreint le niveau d'intelligence des modèles pouvant fonctionner sur les appareils, généralement au niveau des 3 milliards de paramètres.
Cela signifie que lorsque Windows ou le système Android de nouvelle génération sera prêt, ils seront probablement basés sur des modèles de niveau 3B et Copilot, inspirant une nouvelle génération d'applications IA, telles que des navigateurs pilotés par IA, des outils de réponse aux e-mails, etc. L'espace pour ces applications est limité, mais elles resteront très intéressantes car elles ne peuvent exécuter que des modèles de niveau 3B en coulisses. C'est une étape que les téléphones mobiles et les ordinateurs portables traverseront inévitablement car, du point de vue du procédé silicium, la puissance de calcul IA par watt ne changera pas rapidement de manière spectaculaire.
D'autre part, il y a le cloud computing pur. Mais le problème avec le cloud est : êtes-vous prêt à confier vos données provenant de plateformes comme Notion, Slack et Lark à un fournisseur de cloud ? Ou êtes-vous prêt à donner à un seul fournisseur de services cloud un accès complet à vos comptes Taobao, WeChat et financiers ? Cela implique évidemment un énorme coût psychologique de prise de décision. Par conséquent, le cloud existera au plus haut niveau, fournissant les capacités des modèles les plus intelligents via des appels API, pénétrant et couvrant les grandes entreprises.
Mais au milieu, une opportunité de construire un nouveau système d'exploitation est apparue. Ce système d'exploitation agira comme un support pour un agent intelligent, fonctionnant sur un appareil allumé 24 heures sur 24. Vous pouvez lui envoyer des tâches depuis votre téléphone ou votre ordinateur portable, et il les exécutera automatiquement en arrière-plan. Il dispose d'une énorme capacité de stockage de données, et comme il n'y a pas de contraintes de puissance de calcul, il peut être équipé d'un GPU de niveau cent watts, fournissant environ 200 TOPS de puissance de calcul IA. L'itération des TPU et NPU réduira encore le coût de la puissance de calcul, similaire à l'évolution du premier processeur 8088.
Sur cette base, un modèle en temps réel suffisamment intelligent peut être construit pour servir tout le monde. Appliqués au présent, ce sont les grands modèles de niveau 7B à 100B que tout le monde publie, qui, après quantification, peuvent fonctionner entièrement sur une architecture de calcul à 200 TOPS. S'il y a un support adéquat du système d'exploitation, un écosystème riche d'applications d'agents intelligents émergera. Ces modèles au niveau système sont finement ajustés, ce que nous appelons souvent des modèles edge. Bien que la chaîne industrielle comporte de nombreux éléments, ce nouvel appareil a un positionnement clair. Tout comme l'ordinateur portable que vous achetez, vous pouvez vous connecter à divers comptes sans trop vous soucier des problèmes de sécurité des données, car c'est votre appareil informatique personnel. Il est assez intelligent pour vous servir 24 heures sur 24.
Créateurs, ingénieurs et travailleurs du savoir
![]() Créateurs |
![]() Travailleurs indépendants |
![]() Codeurs |
Mise à part les innovations frontales comme les lunettes et les casques, en arrière-plan, il est très probable qu’un appareil informatique personnel émerge, passant de la productivité à l’usage grand public. C’est un appareil qui évolue d’un simple calcul vers une intégration calcul-stockage. Aujourd’hui, la mobilité des données et la collaboration sont renforcées, tandis que la demande en puissance de calcul augmente aussi. Un appareil intégré calcul-stockage devient un support nécessaire pour un agent intelligent personnel.
Au départ, ces appareils peuvent cibler des groupes comme les créateurs, ingénieurs et travailleurs du savoir pour entrer sur le marché. Ils ont généralement une grande quantité de données multimédias riches et des besoins de gestion d’actifs, et nécessitent des outils de productivité pour répondre à leurs points sensibles en matière de stockage et de collaboration. Cela ressemble au chemin de pénétration des premiers PC, ciblant des utilisateurs prêts à payer et ayant une forte demande de productivité, entrant ainsi sur ce nouveau champ de bataille.
ZimaCube – Le cloud privé du créateur
Nous avons récemment mené d’autres entretiens avec de nombreux créateurs et professionnels du contenu, découvrant une gamme plus large de scénarios d’application. En fait, cette catégorie a un pipeline très long. L’approche de ZimaCube est plus proche de l’intégration verticale d’Apple, et nous devons repenser comment avancer à différentes étapes. Actuellement, le NAS (Stockage en réseau) sert de support à l’IA. Il suit son propre processus itératif. Dans ce processus, nous réalisons la commercialisation grâce à l’intégration verticale des solutions de cloud privé des créateurs.
![]() |
![]() |
Le matériel n’est pas une barrière, mais le point de départ ; il doit avoir une certaine singularité. |
Le système et les applications servent le scénario. |
Le matériel est le point de départ ; tout commence par le matériel, mais c’est dans les applications que réside la valeur du scénario. Un écosystème d’applications ouvert peut nous aider à absorber plus tôt diverses applications émergentes comme Lotus 1-2-3. Nous n’avons pas besoin de nous précipiter pour investir beaucoup de ressources dans le développement d’applications ; au lieu de cela, nous devons construire une plateforme et la promouvoir via des opérations communautaires.
Système et applications tierces

Restez ouvert, intégrez les applications grand public de la communauté LocalLLM, et construisez une boutique d’applications avec documentation et standards d’application uniques.
La nécessité de combiner systèmes et communautés dans un contexte commercial mondial
Cependant, les produits hybrides matériel et logiciel sont effectivement difficiles à créer. Dans la Chine d’aujourd’hui, de nombreuses entreprises innovantes nécessitent des capacités doubles. En termes de capacités organisationnelles, d’une part, elles doivent suivre une approche « en cascade » pour la gestion du matériel et les processus de production afin de contrôler les coûts et risques matériels ; d’autre part, elles doivent construire une logique agile et itérative pour mettre à jour les systèmes logiciels de façon hebdomadaire ou mensuelle.
Les communautés peuvent être un excellent vecteur pour alimenter les besoins et retours des utilisateurs mondiaux dans nos systèmes logiciels. Le matériel lui-même peut ne pas nécessiter de mises à jour fréquentes. Si vous vendez une batterie externe, les évaluations Amazon et la gestion en cascade peuvent compléter la définition du produit et un cycle de vente d’un an. Mais aujourd’hui, il existe peu de niches pour les entreprises créatives qui reposent uniquement sur l’approvisionnement matériel. La plupart des catégories qui dépendent des économies d’échelle sont dominées par des géants, et il n’existe pas de nouvelles structures de trafic capables d’élargir rapidement le marché.
Un défi universel : un appel à la prochaine génération de bâtisseurs de plateformes
L’histoire nous montre que chaque ère informatique est finalement définie par une ou quelques plateformes dominantes. Aujourd’hui, construire cette nouvelle plateforme est une opportunité et un défi partagés par tous les innovateurs à l’échelle mondiale. Cela exige une capacité sans précédent et globale qui transcende les frontières :
Intégration profonde du matériel et du logiciel : Cela nécessite la fusion parfaite de la rigueur « en cascade » du développement matériel avec l’itération « agile » du logiciel. L’innovation réussie ne concerne plus seulement le matériel ou le logiciel, mais un « produit hybride » parfaitement intégré.
Co-construire des écosystèmes et des communautés : Tout comme le Homebrew Computer Club a déclenché la révolution du PC, les communautés open source d’aujourd’hui (comme LocalLLM) sont les berceaux de la prochaine génération d’« applications phares ». Un système fermé peut gagner un moment, mais seul un écosystème ouvert peut gagner l’avenir.
Ainsi, la leçon ultime des années 1980 ne porte pas sur la géographie, mais sur la vision. Les vainqueurs de cette époque ont gagné non pas parce qu’ils étaient dans la Silicon Valley, mais parce qu’ils ont réussi à intégrer puces, systèmes et applications dans une plateforme qui a donné du pouvoir aux gens et inauguré une nouvelle ère.
Aujourd’hui, la scène est prête. Pour les entrepreneurs et investisseurs du monde entier, la vraie question n’est pas « où » innover, mais « comment » organiser efficacement les nouveaux facteurs de production — données privées, modèles d’IA et puissance de calcul accessible — en une nouvelle plateforme centrée sur l’humain qui libère la créativité. Ce n’est pas une performance solo d’un pays ou d’une région, mais un effort global qui nous concerne tous, visant à remodeler l’avenir de l’informatique.
Centre de campagne Zima
À lire aussi

Petit rack, grand homelab : comment un créateur a construit le microRACK ultime
Les petits espaces méritent une configuration puissante. Ce rack serveur modulaire microRACK accueille tout votre homelab ZimaBoard sous un bureau pour une efficacité maximale.

IceWhale Technology lance le ZimaCube 2 : une centrale d’auto-hébergement
Le ZimaCube 2 d’IceWhale est une plateforme ouverte d’auto-hébergement avec Intel 12e génération, double PCIe, Thunderbolt 4 et ZimaOS, disponible en 3 configurations et...

Boîtier rétro style AT pour ZimaBoard 2 : construction d’un serveur domestique DIY avec écran intelligent
Les serveurs domestiques ennuyeux gâchent l’esthétique de votre espace de travail et limitent la créativité. Construisez ce boîtier rétro de style AT ZimaBoard 2...





















