Historia de la Computadora y la IA: Prediciendo el Futuro del Hardware – Zima Store Online Saltar al contenido
Zima Store OnlineZima Store Online
Historia de la Computadora y la IA: Prediciendo el Futuro del Hardware en el Borde

Historia de la Computadora y la IA: Prediciendo el Futuro del Hardware en el Borde

Eva Wong es la Redactora Técnica y manitas residente en ZimaSpace. Una geek de toda la vida con pasión por homelabs y software de código abierto, se especializa en traducir conceptos técnicos complejos en guías accesibles y prácticas. Eva cree que el autoalojamiento debe ser divertido, no intimidante. A través de sus tutoriales, empodera a la comunidad para desmitificar configuraciones de hardware, desde construir su primer NAS hasta dominar los contenedores Docker.

Este contenido proviene de una sesión de intercambio de IceWhale Technology dentro de FreeS Fund. Su objetivo es revisar las transformaciones clave, las tendencias de desarrollo, los eventos críticos y las demandas constantes subyacentes de los consumidores en la industria de PC de Silicon Valley en los años 80. El artículo es bastante extenso, cubriendo el estado de los chips en los años 80, el inicio y la penetración de las PC, los cambios en los sistemas DOS y Windows 1.0 de 1980 a 1990, las primeras aplicaciones killer para PC y escenarios de arranque en frío. Esperamos que pueda leerlo con paciencia, esforzándose por inspirar sus decisiones de inversión e innovaciones de productos en hardware y aplicaciones de IA.

Tomando prestada una cita de Ray Dalio de Bridgewater Associates:

La idea de que la historia humana tiene patrones repetitivos es simplemente la realidad. Quizás “ciclo” no sea la palabra correcta para esto, quizás debería ser un patrón, pero creo que ambos describen el proceso.

—— Ray Dalio

El auge de la PC, el proceso de informatización y los cuatro elementos clave

Museo de Historia de la Computación, Silicon Valley de los años 80

Apple I – 1976

Apple I – 1976

$666

Autor: The wub
Licencia: Creative Commons Attribution-Share Alike 4.0

Apple II – 1977

Apple II – 1977

MOS Technology 6502, 8-bit, color, $1200+, 8 ranuras de expansión

Autor: Rama
Licencia: CC BY 2.0

IBM PC - 1981

IBM PC – 1981

Intel 8088, 16bit, 16 MHz, $1500

Autor: Rama & Musée Bolo
Licencia: CC BY-SA 2.0 fr

Commodore 64 - 1982

Commodore 64 – 1982

$595 ->$299

Autor: Bill Bertram
Licencia: Creative Commons Attribution-Share Alike 2.5

Hoy, mientras OpenAI, Google y Microsoft definen la “era de la inteligencia” basada en grandes modelos, primero volvamos a la temprana “era de la información” construida por el nacimiento de la PC en 1976. Ese fue el momento en que nació el Apple I. Esta computadora fue lanzada por Steve Jobs y Steve Wozniak en una comunidad geek llamada Homebrew Computer Club, con un precio de $600. El lanzamiento del Apple I en el club fue muy parecido a un proyecto de crowdfunding en línea en Kickstarter hoy en día. Estaba dirigido solo a geeks, requería ensamblaje manual de piezas y venía en kit… las ventas iniciales fueron poco más de 200 unidades. Pero este producto sentó las bases para Apple, ayudando a Jobs y su equipo a acumular su primer grupo de usuarios semilla.

Poco después, en 1977, Apple lanzó el Apple II. Esta generación no solo era más refinada en apariencia, añadiendo pantalla a color, sino que también incluía ranuras de expansión y una carcasa integrada, facilitando a los geeks la expansión y el bricolaje. Sin embargo, otras especificaciones clave no cambiaron mucho. El lanzamiento del Apple II fue un hito; tenía un precio de $1250, muy por debajo de las costosas computadoras comerciales de la época.

Cuatro años después, IBM, supuestamente bajo presión del mercado, envió un equipo reducido de 12 personas para lanzar un proyecto con el nombre en clave “Project Chess”, afirmando su posición como líder de la industria. Como empresa líder, naturalmente necesitaban hacer una declaración fuerte. Introdujeron la IBM PC, basada en un procesador Intel, y adoptaron una arquitectura de hardware abierta. Esto abrió la puerta para que otros fabricantes crearan dispositivos compatibles, lo que a su vez promovió la formación del ecosistema Wintel. La estrategia abierta de IBM llevó rápidamente a que su estándar de PC fuera aceptado por el mercado.

El Commodore 64 en 1982 es otra empresa que vale la pena destacar, aunque no llegó muy lejos. En sus primeros días, acertó en varias estrategias clave. Ofreció un rendimiento líder en gráficos y audio a un precio competitivo de $595, que fue bien recibido. Al mismo tiempo, Commodore priorizó expandirse en el mercado europeo, con más de la mitad de sus ingresos provenientes de Europa. Aprovechando las redes de distribución locales y la publicidad, ganó rápidamente popularidad, sentando una base sólida para su presencia en el mercado global de computadoras domésticas.

Así como hoy existen numerosos subcanales en Reddit para grandes modelos como ChatGPT, LocalLLM y Stable Diffusion, en los primeros días de cada era, una gran cantidad de individuos talentosos e ideas surgieron de comunidades en línea y fuera de línea. Esto no es tan desconocido para el mundo actual, ya que muchos gigantes tecnológicos solían reunirse en foros BBS cuando llegó internet por primera vez, antes de dispersarse en diversas industrias. Hoy, la comunidad alrededor de grandes modelos en las principales universidades tiene atributos similares.

Pero lo que es más interesante es que tales clubes tienden a desaparecer gradualmente en una década. El patrón es que cuando surge una nueva categoría, atrae a un grupo de entusiastas muy activos en la comunidad, que proponen diversas ideas e incluso crean prototipos tempranos de productos. A medida que las grandes empresas intervienen y la innovación se orienta hacia la comercialización, las ideas iniciales de base comunitaria maduran y adquieren sustancia. Sin embargo, estas comunidades a menudo tienen un “destino”: son extremadamente prósperas durante períodos de innovación activa, pero su popularidad se desvanece a medida que la industria madura y surgen los gigantes. El Homebrew Computer Club, así como el desarrollo de la industria actual de modelos, la impresión 3D y los cuadricópteros, siguen este patrón de “auge y caída”.

Ic-photo-Intel--P8088--(8088-CPU)-v2.png

Autor: ZyMOS

Creative Commons Attribution-Share Alike 4.0

El Intel 8088 es un procesador clásico lanzado en 1979, usado en el IBM PC.

  • Bus de datos de 8 bits, procesamiento interno de 16 bits: Aunque era de 16 bits internamente, usaba un bus de datos externo de 8 bits, lo que redujo los costos de hardware.
  • Velocidad de reloj de 4.77 MHz: Velocidad de procesamiento moderada, suficiente para soportar procesamiento de texto y juegos simples de la época.
  • Soporta 1 MB de memoria: Puede acceder a un máximo de 1 MB de memoria.
  • Compatible con el conjunto de instrucciones x86: Compatible con los procesadores posteriores de la serie x86, sentando las bases para la estandarización del PC.
  • Paquete de 40 pines, bajo consumo de energía: Tamaño pequeño y bajo consumo de energía, adecuado para las necesidades de las computadoras de escritorio de la época.

En segundo lugar, veamos los chips de esa época, que fueron la base para la categoría PC. La definición de un PC es inseparable de la disminución continua de los costos de los chips y el poder de cómputo “justo suficiente”. Ser adecuado para el uso y asequible permitió que los PCs entraran en el mercado masivo. El Intel 8088 es un ejemplo típico. El 8088 ajustó el ancho del bus en comparación con su predecesor, el 8086, resultando en costos más bajos, lo que le permitió convertirse en el chip central del IBM PC.

En ese momento, el equipo informático comercial y militar principal de IBM era muy grande y potente, pero completamente “excesivo” para el mercado personal. En contraste, el 8088 fue un paso atrás, ofreciendo un poder de cómputo equilibrado a un costo menor, muy parecido a los dispositivos NAS (Almacenamiento conectado en red) actuales que simplifican los servidores comerciales a un tamaño y potencia de cómputo adecuados para uso doméstico, permitiendo a las personas tener sus propias soluciones informáticas pequeñas.

Si el H200 de NVIDIA es el líder comercial hoy, ¿quién está desarrollando los chips ASIC que llevarán los modelos a diversos terminales informáticos como PCs con IA o NAS con IA?

La evolución de los sistemas – Cada generación presume de su “interfaz amigable para el usuario”

Al igual que hoy en día todas las empresas afirman tener un “sistema inteligente”

Apple II Dos

Autor: Vadim Rumyantsev
dominio público

Apple II DOS – 1978

Entusiastas tecnológicos, pequeñas empresas

Interfaz de línea de comandos

Xerox Star OS – 1981

Usuarios empresariales

Primero en introducir una GUI; un artículo de lujo con un precio de $16,595…

Apple Macintosh Classic

Autor: Eric Chan de Hong Kong
Creative Commons Attribution 2.0

Macintosh – 1984

Consumidores masivos, profesionales creativos, educación

Adopción generalizada de GUI

DOS – Sistema Operativo de Disco

Tercero, veamos los sistemas operativos tempranos. Al igual que hoy en día la gente está "ajustando finamente" modelos, básicamente era algo con lo que solo los ingenieros podían experimentar. Alrededor de 1978-79, solo unos diez mil ingenieros en Silicon Valley trabajaban con sistemas DOS, que eran completamente basados en línea de comandos sin interfaz gráfica. En esta etapa, los sistemas operativos estaban lejos de penetrar el uso diario de las empresas y el público en general, muy parecido a los modelos de IA hoy en día, que todavía están en manos de un grupo de geeks tecnológicos.

No fue hasta 1981, con el lanzamiento del primer PC de IBM, que el sistema DOS ganó gradualmente más atención, pero seguía siendo una versión de línea de comandos sin GUI. Por lo tanto, los escenarios informáticos de esa época eran muy similares a la IA de hoy: requerían una gran cantidad de geeks tecnológicos e ingenieros que ajustaran e integraran repetidamente para lograr aplicaciones específicas. Lo que realmente llevó a las PCs y sistemas operativos al nivel empresarial fue la interfaz gráfica de usuario (GUI) del Xerox Star, que dio inicio a la primera verdadera ola de expansión de usuarios.

En 1984, el sistema de interfaz gráfica lanzado por Apple amplió aún más la base de usuarios hacia campos creativos, educativos y otros profesionales, abriendo lentamente la aplicación masiva de sistemas operativos. Sin embargo, durante este período, los sistemas DOS y GUI coexistieron durante mucho tiempo, con empresas manteniendo dos sistemas separados para atender diferentes necesidades.

El ecosistema de aplicaciones de principios de los años 80, lo que hoy llamamos “Killer Apps”

Lotus 1-2-3 – 1982

Lotus-123-3.0-MSDOS

Autor: Odacir Blanco
Dominio Público
Finanzas Corporativas, Pequeñas y Medianas Empresas

WordPerfect – 1985

Wordperfect-5.1-dos

Licencia: Dominio Público
Legal y Académico

Cuarto, ¡el ecosistema de aplicaciones que se desarrolló gradualmente junto con las capacidades del sistema y el hardware! Aquí hay algunas aplicaciones representativas y un vistazo a su camino de penetración en la revolución de la productividad en PC.

En estos primeros sistemas de interfaz de usuario, el mercado aún no había alcanzado una escala de consumo y estaba compuesto principalmente por escenarios de productividad. Algunas aplicaciones comenzaron a destacar, como Lotus 1-2-3, un famoso software de gestión financiera y una versión temprana de Excel. WordPerfect, lanzado en 1985, se usaba principalmente en los campos legal y académico. Sin embargo, estas operaciones de edición no se realizaban a través de una interfaz gráfica pulida, sino que dependían de la línea de comandos de DOS. Los trabajadores del conocimiento necesitaban aprender las operaciones relevantes de línea de comandos para completar las tareas de edición.

En el campo de la investigación académica, el uso de PCs para la digitalización de documentos y la colaboración trajo enormes mejoras en la eficiencia. Por lo tanto, para 1988, la tasa de penetración de PCs en la academia era muy alta para escenarios como la transferencia de archivos, la comunicación por correo electrónico y la edición de texto. Sin embargo, no fue hasta 1989, con la mejora del poder de cómputo de la CPU y las capacidades de procesamiento GUI, que comenzó a tener un impacto importante en industrias como la impresión y el diseño publicitario. Esto es algo parecido a hoy; aunque OpenAI ha lanzado un modelo de mundo de video, no se ha aplicado rápidamente a escenarios prácticos porque la maduración de los recursos informáticos y la tecnología GUI lleva tiempo.

Las imágenes anteriores son simulaciones generadas por IA

CorelDRAW – 1989

CorelDraw -1989

Diseñadores gráficos, industria de la impresión

Quicken – 1984

Quicken - 1984

Usuarios personales, pequeñas empresas

Flight Simulator – 1985

Flight Simulator - 1985

Entusiastas de la aviación, estudiantes

En los primeros días de una nueva plataforma informática, la innovación en aplicaciones que profundizan en escenarios verticales sigue teniendo un valor inmenso para la industria. Si hacemos una analogía con el presente, creo que el próximo año, cuando la potencia de cálculo TPU en PCs esté lista y Windows, como sistema operativo intermedio estándar, pueda proporcionar una potente capacidad de cálculo de IA para aplicaciones de capa superior, surgirá un nuevo grupo de aplicaciones de PC relacionadas con IA tipo Copilot, que funcionarán directamente en el edge.

En este contexto, Quicken profundizó aún más la experiencia en escenarios empresariales basándose en Lotus. Mejoró la interfaz de interacción y la configurabilidad del sistema DOS original, desarrollándose profundamente para las necesidades de la gestión financiera y las pequeñas empresas. Esto dio a estas primeras aplicaciones un buen espacio para sobrevivir.

Sin embargo, los precios de estas aplicaciones eran bastante altos. Por ejemplo, Lotus 1-2-3 tenía un precio cercano a los $500, lo que era una solución muy costosa en 1985. Esto indica que los escenarios tempranos de productividad estaban principalmente impulsados por consumidores con un fuerte poder adquisitivo.

Además, había algunos juegos y simuladores para entusiastas, como “Flight Simulator” en Windows, que ofrecían características de producto más diversas y ligeras, atrayendo a nuevos usuarios que gustaban de explorar y experimentar. Por lo tanto, podemos ver que el ecosistema temprano de PC se construyó mediante una combinación de herramientas de productividad de alto rendimiento, penetración en pequeñas y medianas empresas, investigación industrial y académica, y algunas aplicaciones innovadoras interesantes. Sin embargo, la línea de tiempo para este proceso fue muy larga porque las tecnologías subyacentes DOS y GUI se desarrollaban relativamente despacio.

Específicamente, los proveedores de aplicaciones como Lotus jugaron un papel clave. No eran proveedores de sistemas operativos; estos últimos se centraban en construir la fiabilidad, la programación de recursos y la escalabilidad del sistema. En el período de 8 a 9 años desde 1982 hasta 1990, Lotus aprovechó la oportunidad para llenar un vacío en el mercado. Apple y Microsoft no comenzaron a lanzar sus suites completas de Office hasta la década de 1990, lo que dio a estas aplicaciones a nivel de sistema una ventaja en el mercado de 7 a 8 años. Aprovecharon la popularidad del IBM PC y el sistema DOS para ingresar rápidamente en los usuarios empresariales, la contabilidad financiera y otros campos. Estos usuarios tenían fuertes necesidades de procesamiento de datos, y la combinación de las nuevas computadoras y el software de Lotus logró una penetración total en estos escenarios.

Windows 1.0 y el “loco” discurso de ventas de Ballmer

Regresando a 1985, la cuota de mercado de Lotus ya había superado el 50%. Frente a su alto precio de $495, no es difícil entender por qué Steve Ballmer, al promocionar Windows 1.0, enfatizó: “Ofrecemos un juego de ajedrez, una hoja de cálculo y procesamiento de imágenes por solo $99, no $500 o $600.” En ese momento, el precio del software era un punto de venta muy atractivo en marketing. Al vender el sistema operativo, software gráfico especializado como CorelDRAW, algo similar al posterior Photoshop, proporcionaba a los usuarios funciones profesionales de procesamiento de imágenes.

Lotus 1-2-3

Empresa: Lotus Development Corporation

Contexto: Lotus 1-2-3 fue desarrollado por Lotus Development Corporation, fundada por Mitch Kapor en 1982. Lotus 1-2-3 fue el primer software para IBM PC que ofreció funciones integradas de hoja de cálculo, gráficos y gestión de bases de datos, convirtiéndose rápidamente en uno de los programas de aplicación más populares, especialmente entre usuarios empresariales y de negocios.

Perfil del usuario: Los principales usuarios eran usuarios empresariales, especialmente analistas financieros, contadores y gerentes. Estos usuarios típicamente tenían un cierto nivel de conocimiento técnico y eran muy sensibles a los datos.

Principales casos de uso: Se utilizaba para gestión de datos, modelado financiero complejo, presupuestos, generación de informes y diversas otras formas de análisis de datos. Las potentes funciones de Lotus 1-2-3 lo convirtieron en la opción principal para el uso de hojas de cálculo en empresas.

1983: Lotus 1-2-3 fue lanzado y rápidamente se convirtió en el líder del mercado, especialmente en compatibles con IBM PC.

1985: La cuota de mercado superó el 50%, con un precio de $495.

CorelDRAW

Empresa: Corel Corporation

Contexto: A finales de los años 80, con la popularización de las interfaces gráficas de usuario (GUI) y las computadoras personales (PC), los mercados de diseño gráfico y publicación de escritorio crecieron rápidamente. Los procesos tradicionales de diseño (dibujo manual y composición tipográfica) comenzaron a transitar hacia lo digital.

Perfil del usuario: Tenían cierto conocimiento de diseño gráfico por computadora, pero no necesariamente eran expertos técnicos.

  • Diseñadores profesionales e ilustradores: Requerían herramientas precisas de dibujo vectorial para crear ilustraciones, logotipos y otros trabajos de diseño.
  • Profesionales de la publicación de escritorio (DTP): Necesitaban combinar texto y gráficos para producir libros, revistas, materiales promocionales, etc.
  • Pequeñas y medianas empresas y freelancers: Usaban CorelDRAW para crear logotipos empresariales, anuncios y materiales de marketing sin necesidad de costoso hardware y software de diseño dedicado.

1989: CorelDRAW 1.0 fue el primer software que combinó funciones de diseño gráfico vectorial y publicación de escritorio, y su lanzamiento lideró una revolución en el campo del diseño gráfico. Esta versión soportaba características como múltiples páginas, edición de curvas y procesamiento de texto.

Desde el adquirido MS-DOS 1.0 hasta Windows + Office

Tiempo Título Detalles
1981 MS-DOS 1.0 Asociación confirmada con IBM
1982 MS-DOS 1.25 Licenciado a marcas compatibles de terceros
1983 MS-DOS 2.0
Microsoft Word
Funcionalidad del sistema mejorada
Soporte para discos duros y estructuras de directorios
1985 Windows 1.0 Añadió una interfaz gráfica sobre Microsoft MS-DOS
1987 Windows 2.0 Mejor soporte gráfico y rendimiento
Ventanas superpuestas y teclas de acceso rápido
1988 MS-DOS 4.0 Introdujo la interfaz gráfica de usuario DOS Shell
1989 Microsoft Office Proporcionó integración de automatización de oficina para Windows

El ascenso de Microsoft quizás no se debió a sus productos iniciales, sino a su excelente estrategia comercial. Desde temprano, Microsoft mostró un agudo sentido empresarial al adquirir un sistema operativo de terceros llamado 86-DOS [sí, lo compraron…]. Este movimiento los convirtió en un socio importante para IBM. Pero sorprendentemente, Microsoft se expandió rápidamente en el segundo año, cooperando con otros fabricantes de hardware, muy parecido a cómo después de que Tesla definió los estándares de la industria hoy, numerosas empresas siguieron su ejemplo, impulsando todo el ecosistema ODM y el establecimiento de estándares AIPC.

Después de que Microsoft definió el estándar, los fabricantes de hardware comenzaron a actuar. Volviendo a la pista actual de PC con IA y aplicaciones de IA en el borde, veremos una gran cantidad de laptops con 40 TOPS de potencia de cálculo de IA llegando al mercado, y Qualcomm está haciendo movimientos similares. Esto trae nuevas variables: por un lado, el hardware se actualiza, y por otro, se destaca la importancia del sistema operativo en la capa intermedia. El sistema operativo necesita asignar eficazmente los 40 TOPS de recursos de cálculo para satisfacer las necesidades de muchas aplicaciones de capa superior. Microsoft invirtió mucho en el desarrollo del sistema operativo, sin dejar tiempo para competir con Lotus o WordPerfect durante mucho tiempo.

No fue hasta el tercer año que Microsoft comenzó a imitar a WordPerfect [el sistema absorbe aplicaciones clave], y esto continuó hasta 1989. Durante ocho años, Microsoft consolidó su cobertura de licencias de terceros para el sistema y comenzó a vender Windows 1.0 de forma independiente en 1985. Vale la pena señalar que Windows 1.0 se lanzó cuatro años completos después del sistema GUI de Xerox, lo que muestra el largo proceso de desarrollo del sistema operativo. Las primeras versiones de Windows se vendían principalmente junto con dispositivos de hardware, con ventas que alcanzaron decenas de miles de unidades en los primeros dos o tres años, y un envío acumulado de cinco a seis millones de unidades en ocho años.

La Revolución de la Productividad vs. Cada Hogar

En ese momento, el mercado principal de las PC no se limitaba a Norteamérica; los países desarrollados de Europa también importaban estos dispositivos por mar. La base de usuarios se concentraba principalmente en escenarios de productividad intensiva. No fue hasta 1989, cuando comenzaron a surgir aplicaciones como el procesamiento de imágenes, que se impulsaron nuevos casos de uso. Incluso con el lanzamiento de sistemas GUI, no entraron inmediatamente en el mercado masivo de consumo. La verdadera entrada en los hogares comunes ocurrió alrededor de 1994, con el auge del navegador Netscape y el internet, cuando cada vez más personas que usaban computadoras en el trabajo comenzaron a comprar dispositivos para sus hogares.

Esta trayectoria de evolución tecnológica, desde una revolución de productividad hasta una explosión de consumo, es claramente visible en la era de las PC. Hoy, la información se difunde rápidamente, y si la IA puede potenciar cada escenario de consumo aún necesita tiempo para ser verificado. En las etapas iniciales, puede que necesitemos prestar más atención a los cambios en el lado de la producción y el suministro.

Otro factor clave es la evolución de la interacción humano-computadora. La introducción del ratón creó un nuevo modo de interacción humano-computadora, que influyó enormemente en la penetración de las PC. De manera similar, podemos reflexionar sobre la estructura actual observando la trayectoria de desarrollo de Microsoft. Si hoy OpenAI está validando la posibilidad de un sistema operativo de IA en la nube, entonces en el edge, sin el soporte de un sistema operativo, las aplicaciones de capa superior tendrán dificultades para crecer. Cuando el sistema operativo y el hardware logren avances clave, las aplicaciones downstream pueden experimentar un crecimiento explosivo.

Hoy interactuamos mediante lenguaje natural y flujos de video, y estas nuevas variables también afectarán los escenarios de aplicación de la IA. Para resumir brevemente, la razón por la que Microsoft tardó de 1981 a 1989 en desarrollar DOS y GUI en paralelo fue que necesitaban ser compatibles con una gran cantidad de dispositivos de hardware. Esto también explica por qué Steve Jobs una vez menospreció el sistema Windows, considerándolo complejo y poco estético. Sin embargo, desde una perspectiva comercial, Microsoft dio pasos firmes: desde adquirir código y lanzar una GUI hasta publicar Office ocho años después de Lotus, consolidaron su posición en el ecosistema de todas las formas posibles.

Una mirada a la arquitectura actual de Windows a través del lente de Windows NT

Diagrama de Arquitectura de Windows NT con componentes traducidos

Diagrama de Arquitectura de Windows NT con componentes traducidos

  • Subsistemas en Modo Usuario: Compatibilidad de aplicaciones
  • Administrador de Windows y GDI: Interfaz de usuario y gestión de ventanas
  • Administrador de Energía: Gestiona la energía
  • Administrador PnP: Administrador de dispositivos Plug and Play
  • Administrador de Procesos: Gestiona los procesos
  • VMM: Administrador de Memoria Virtual
  • Administrador IPC: Comunicación entre procesos, como el paso de mensajes
  • Monitor de Referencia de Seguridad: Autorización y seguridad
  • Administrador de E/S: Gestiona las solicitudes de entrada/salida para dispositivos
  • Administrador de Objetos: Proporciona control unificado y seguridad para objetos como archivos, procesos y dispositivos
  • Microkernel: Funciones centrales del SO, comunicación entre procesos, gestión de hilos
  • Controladores en Modo Kernel: Interactúan directamente con el hardware, proporcionando interfaces de hardware para el sistema
  • HAL: Capa de Abstracción de Hardware, protege las diferencias entre hardware

Resumen de los Cuatro Elementos – Viendo las Variables y Demandas Constantes

Chips, Sistema, Aplicaciones y Dispositivos

Almacenamiento/Computación

Chip

Conductor

Sistema

Interfaz de usuario del SO

Base

Aplicación

aplicación clásica

Valor para el usuario

Producto

producto final

Vehículo

En este proceso, varios elementos clave merecen atención. El primero es la evolución de las unidades de almacenamiento y computación. Aunque los costos de los primeros chips y almacenamiento disminuyeron, no bajaron significativamente, lo cual está relacionado con el avance de la Ley de Moore. Hoy, el despliegue de la computación en el borde también se debe a que el desarrollo tecnológico ha alcanzado un cierto punto de inflexión.

Segundo, el sistema operativo, como un middleware importante, asume tareas clave como la gestión de recursos y la adaptación de dispositivos. Aunque los sistemas iniciales no eran potentes, su importancia era evidente.

Tercero, las primeras aplicaciones estrella podían generar dinero, pero si no se desarrollaban en profundidad, eventualmente podían ser reemplazadas [lo que ahora se llama a menudo escenarios verticales, que requieren profundidad]. Si los proveedores de aplicaciones pueden llegar hasta la capa del sistema operativo sigue siendo una cuestión que vale la pena reflexionar.

En última instancia, el valor es capturado por un vehículo comercial. En los primeros días, la gente compraba hardware como el vehículo, pero con el establecimiento de plataformas de sistema, la importancia del hardware disminuyó relativamente. En la era donde “la plataforma es el rey,” el sistema operativo no solo compartió el valor sino que también fomentó un ecosistema de aplicaciones rico. Este fenómeno también se verificó en la era del internet móvil.

Podemos mapear estos cuatro elementos—hardware, sistema operativo, aplicaciones e interacción humano-computadora—al desarrollo actual de la IA. En el lado de la oferta, debemos pensar por qué las personas necesitan computadoras y por qué necesitan modelos de IA. La demanda inmutable es para un almacenamiento y edición de información eficientes y convenientes. Cada generación de dispositivos informáticos busca una interacción humano-computadora más natural y sencilla, que es un tema eterno.

Finalmente, la difusión y el intercambio de información también son factores importantes que impulsan el desarrollo tecnológico. Desde los primeros correos electrónicos hasta los navegadores posteriores, la evolución de los métodos de difusión ha satisfecho las necesidades profundas de digitalización de las personas. Hoy en día, generalmente creemos que estamos en una ola de inteligencia, al igual que la pasada revolución de la información, y podemos usar patrones históricos para hacer analogías y pensar en direcciones futuras.

  • Capa de Fundación Tecnológica (Clave para Almacenamiento/Cómputo): El desarrollo de tecnologías de hardware centrales como procesadores (potencia de cómputo) y almacenamiento (medios de almacenamiento).
  • Capa de Plataforma: La plataforma básica del PC, que proporciona interfaces con el hardware y un entorno de ejecución para aplicaciones de capa superior.
  • Capa de Aplicación: El software de aplicación es la principal motivación para que los usuarios compren PCs y es un factor importante para atraer usuarios a una plataforma determinada.
  • Vehículo de Transacción: Los productos de hardware son los dispositivos físicos que los usuarios finales compran, disponibles para que los usuarios elijan y adquieran.

Demanda – Digitalización:

  • Retención: Un medio conveniente para almacenar información de forma permanente.
  • Producción: La necesidad constante de eficiencia en el procesamiento de texto, datos, imágenes e información en escenarios de productividad.
  • Difusión: La eficiencia de la colaboración.

Eventos y tendencias clave después de 1990

Año Evento Descripción
1993 Lanzamiento del procesador Intel Pentium Mejora significativa en el rendimiento y eficiencia de la CPU
1998 Windows 98 y estándar USB 1.1 Hizo que los dispositivos externos fueran plug-and-play
2000 Intel Pentium 4 Mainframe de escritorio de alto rendimiento
2003 Explosión de aplicaciones de Internet MySpace y Facebook, Amazon y eBay
2005 Las ventas de laptops superan a las de computadoras de escritorio por primera vez Plataforma Intel Centrino, integrada con procesadores de bajo consumo
2007 El auge de los netbooks Aparecen netbooks basados en procesadores Intel Atom
2011 Ultrabook Concepto de Ultrabook, portátil vs tableta
2018 Teléfono inteligente Reemplazó otros dispositivos para convertirse en la principal computación móvil

La tabla anterior muestra claramente información muy interesante. Al entrar en los años 90, dimos la bienvenida al lanzamiento del procesador Intel Pentium, la explosión de aplicaciones de internet, el nacimiento de Windows 98 y la aparición de USB 1.1, netbooks y ultrabooks. Esta serie de innovaciones tecnológicas describe la tendencia inmutable en el desarrollo de las computadoras: el internet realmente entró en cada hogar.

Durante este período, las CPU se volvieron aún más ligeras, y la llegada de USB 1.1 facilitó la expansión de periféricos, haciendo sencillo conectar dispositivos como ratones. El auge de internet llevó a que un gran número de consumidores comenzara a usar dispositivos de computación personal. Cabe destacar que el desarrollo de la PC muestra una tendencia clara: ligereza y portabilidad. Un microcosmos temprano del teléfono móvil fue la PDA.

Ultrabook - 2012

Computadora de escritorio – 2000

Portátil - 2005

Portátil – 2005

Computadora de escritorio - 2000

Ultrabook – 2012

Las imágenes anteriores son simulaciones generadas por IA

La revolución de las PDA en los años 90 ofrece una perspectiva interesante. Aunque el tiempo es limitado, no profundizaremos aquí. Sin embargo, una revisión de esta trayectoria puede ofrecer algunas analogías clave para la futura evolución de las PC con IA o NAS con IA.

He discutido esto con colegas de Lenovo. Su penetración temprana en el mercado ya involucraba navegadores. En 2000, Lenovo lanzó un programa que facilitó el acceso a internet por marcación, simplificando la configuración y conexión de red, permitiendo que más usuarios accedieran a internet. Esto les ayudó a capturar rápidamente el mercado. Luego llegó la era de las computadoras de marca.

Una constante en la evolución de las PC es el cambio hacia la portabilidad y delgadez, permitiendo a las personas acceder al mundo digital en cualquier momento y lugar. Otra tendencia es el cambio de una producción pesada inicial a una penetración en múltiples escenarios. Entonces, ¿en qué industrias verticales se enfocará inicialmente la IA? ¿Cuándo logrará una adopción generalizada? Esto está estrechamente relacionado con la potencia informática subyacente, la forma del dispositivo y la madurez del sistema operativo; todos están interconectados. Vemos que la segunda mitad de la era de las PC encarna esta penetración en múltiples escenarios.

Hoy, nuevas variables como GPUs, TPUs y la NPU integrada de RISC-V están impulsando la evolución del sistema, y estos cambios en el sistema permeabilizarán la capa de aplicaciones. Cuando llegue el momento adecuado, surgirán muchas aplicaciones nativas de IA interesantes, haciendo que el Copilot local sea aún más poderoso. Sin embargo, hay muchos elementos clave en la cadena industrial, que requieren una consideración profunda y observación de los cambios en los actores clave.

Factores cambiantes, tendencias inmutables

  • 1. Portabilidad: De dispositivos pesados a portátiles, menor consumo de energía y dispositivos más ligeros, reduciendo significativamente el costo de entrada al mundo digital.
  • 2. Multi-escenario: Juegos, dibujo, programación y periféricos relacionados – ampliando significativamente los límites de las aplicaciones digitales.

¿Qué es clave para establecer una nueva categoría? Dispositivos especializados vs. dispositivos de cómputo de propósito general

En este proceso, me di cuenta de una pregunta interesante: ¿Cómo se comparan los dispositivos de IA multifórmicos actuales con el desarrollo de la PC en el pasado? ¿Qué innovaciones de dispositivos serán absorbidas por la PC y cuáles no? La PC era tan dominante entonces, así como los smartphones, laptops y la computación en la nube lo son hoy. Entonces, ¿en qué escenarios ocurrió una divergencia entre dispositivos especializados y de propósito general, que finalmente no fue reemplazada por un dispositivo único y unificado?

Descubrí que la consola de juegos lanzada por Nintendo en 1983 en realidad usaba el mismo chip que el Apple I y II, pero se convirtió en un dispositivo especializado. Hasta hoy, comprar una PS5 o Xbox sigue la misma lógica. Por lo tanto, cuando un escenario vertical tiene suficiente profundidad en necesidades de cómputo, requisitos del sistema y escenarios de aplicación, puede formar una categoría independiente de dispositivos especializados. El PDA de 1999 es otro ejemplo. Usaba dispositivos relativamente obsoletos y de bajo consumo para satisfacer la necesidad de un asistente digital personal. Aunque el PDA en ese momento aún no era un teléfono, solo una herramienta de bajo costo para la gestión de agenda y contactos, era mucho más barato que una PC y ocupaba un pequeño ecosistema de dispositivos portátiles, que puede verse como un precursor del teléfono móvil. Pero no fue completamente reemplazado por las laptops posteriores; en cambio, el desarrollo de los teléfonos móviles lo superó.

Entre 1980 y 2000, ¿surgió un dispositivo de cómputo único y unificado en la industria informática? La palabra clave es “profundidad de escenario.”

NES-Console-Set.png

NES – 1983

MOS Technology 6502

PDA - 1999

PDA – 1999

Motorola DragonBall 16 MHz

La frontera entre dispositivos especializados y de propósito general nos inspira a pensar: ¿cuáles de los dispositivos inteligentes de IA actuales serán absorbidos por los teléfonos IA, y cuáles se diversificarán independientemente en nuevas categorías como juguetes IA? En términos de profundidad de escenario e inversión en activos, podemos usar las consolas de juegos y los PDA como analogías para un pensamiento profundo.

De paso, los primeros procesadores de 8 bits tenían un rendimiento de cómputo que no se comparaba con los procesadores ARM actuales; eran comparables al controlador de pantalla de tu refrigerador o microondas doméstico. Una computadora de 1980 estaba esencialmente al nivel de cómputo de tu refrigerador en casa. El punto es: mirando hacia atrás, no era tan potente como la gente podría imaginar, pero sentó las bases para toda la industria de PC y el desarrollo de internet.

PDA vs. PC – Poder de Cómputo, Costo, Consumo de Energía, Escenarios de Aplicación e Interacción Humano-Computadora
Dimensión de Comparación PDA PC en 1999
Poder de Cómputo Procesador de bajo rendimiento (por ejemplo, Motorola DragonBall 16 MHz), 2-16 MB de RAM, espacio de almacenamiento limitado; capacidades gráficas y multimedia débiles. Procesador de alto rendimiento (por ejemplo, Intel Pentium III 500 MHz); 64-256 MB de RAM, capacidad de disco duro de 10-20 GB; potentes capacidades de procesamiento gráfico y multimedia.
Costo Rango de precios: $200-$600;
Principalmente para Gestión de Información Personal (PIM), alta relación costo-beneficio.
Rango de precios: $1000-$2000;
Proporciona funciones informáticas completas, amplia gama de aplicaciones, alta relación costo-beneficio.
Consumo de energía Diseño de bajo consumo, alimentado por batería;
Larga duración de batería, consumo de energía desde unos pocos cientos de miliwatts hasta unos pocos vatios.
Alto consumo de energía, típicamente 100-300 vatios;
Requiere suministro de energía continua, poca portabilidad.
Escenarios de aplicación Gestión de horarios, gestión de contactos, listas de tareas;
Procesamiento simple de texto, notas, correo electrónico; enfatiza la portabilidad e inmediatez.
Trabajo de oficina (procesamiento de textos, hojas de cálculo);
Entretenimiento (juegos, música, películas);
Navegación por Internet y comunicación, desarrollo de software, diseño gráfico, etc.
Portabilidad Tamaño pequeño, peso ligero; fácil de llevar y usar en cualquier momento y lugar. Tamaño grande, peso pesado; para uso en una ubicación fija, no fácil de transportar.

La PC de IA de hoy, aplicaciones y nuevas oportunidades

Volviendo al presente, aunque los elementos de la cadena industrial han cambiado, lo que permanece inalterable es la demanda de las personas por la retención, producción y diseminación de datos. A un nivel abstracto, las necesidades de las personas están cambiando de operaciones GUI a necesitar un competidor o un agente inteligente que complete automáticamente código o tareas. Lo que permanece constante debe ser la necesidad de adquirir y almacenar información. Con la implementación de Copilot, los creadores pueden ingresar algo de contexto y dejar que la máquina les ayude a obtener guiones creativos o entender lo que sus pares están haciendo.

Por ejemplo, una empresa puede usar un agente para rastrear todas las innovaciones relevantes de la industria en tiempo real y generar automáticamente informes semanales. Estas formas de retener y adquirir datos de producción se volverán más inteligentes y sofisticadas. Y el soporte para esto definitivamente será diferente de una PC tradicional; será un dispositivo de cómputo siempre activo y en tiempo real. En el pasado, las personas necesitaban usar un ratón y una GUI para ser productivas; pero cuando la inteligencia está directamente integrada en el dispositivo de cómputo, puede actuar de forma independiente. Esto significa que la interacción humano-computadora ya no necesita depender de un ratón y una pantalla. Puedes enviarle una tarea y puede completarla directamente.

Y el proceso para lograr todo esto revela un patrón que puede verse en el microcosmos de los últimos 40 años. Por lo tanto, estas demandas subyacentes del escenario tienen consistencia. La nueva productividad impulsada por GPT seguirá estando dominada por escenarios de productividad en las etapas iniciales, al igual que Lotus 1-2-3 en la era DOS. Podemos construir sobre esta base, añadir nuevas variables de producción y encontrar posibles escenarios de aplicación temprana. Combinado con la industria de juegos mencionada anteriormente, la industria de procesamiento de imágenes y los métodos para producir, adquirir y diseminar datos, podemos explorar teóricamente todas las posibilidades.

Digitalización -> Inteligentización

Retención: La máquina adquiere información y proporciona recomendaciones personalizadas.

Producción: Los modelos participan en la toma de decisiones y asisten en el proceso de producción.

Diseminación: La máquina maneja automáticamente la distribución y diseminación.

Nuevos Factores de Producción

Ahora, podemos ver que comienzan a surgir cuatro nuevos factores de producción: el desarrollo de GPUs y TPUs, nuevos modelos de sistemas operativos, la privatización de datos y la cantidad de datos únicos de usuarios almacenados. Cuando se combinan estos factores, podríamos presenciar el nacimiento de un dispositivo informático completamente nuevo “integrado de cómputo y almacenamiento”. Su posición es diferente a la de los teléfonos móviles, laptops e incluso la nube pública. Intentaré listar sus características claramente en una tabla.

Datos Privados

Modelos Grandes

Potencia de Cómputo GPU/TPU

Aplicaciones

Mujer usando computadora.jpg

Icono Ollama

Ilustrador GPU/TPU

Autor: Brian Kerrigan
Creative Commons Atribución-Compartir Igual 3.0 Sin Fronteras

  • Datos Privados: Recursos de datos propietarios de alta calidad dentro de una organización o datos adquiridos privadamente por máquinas son activos clave para entrenar y optimizar modelos de IA.
  • Capacidad de Modelo Grande: La habilidad para entender, generar y razonar, adaptable a diversas tareas y escenarios.
  • Poder de Cómputo GPU o ASIC: Hardware especializado de alto rendimiento para inferencia.
  • Aplicaciones de IA: Nuevas aplicaciones basadas en LLMs que se integran en varios escenarios.

Escenarios y Operadores – Una Tabla

Comparación Teléfono Móvil Nube Privada Nube Pública
Aplicación de IA Ligero, Copiloto Capacidad de Inferencia Privada, Agente OpenAI, Agente
Capacidad de Modelo Grande 3B 7B – 100B 405B
Rendimiento de Computación Chip Móvil, Bajo Consumo
6W 20 TOPS
GPU / ASIC, Rendimiento Medio-Alto
200W 200 TOPS
Clúster de Alto Rendimiento, Escalado Elástico
Sistema Operativo Android, iOS
Ejecución en Tiempo de Ejecución
Acceso Completo a Datos
Sistema Operativo de Nube Privada
Ejecución de Tareas en Tiempo Real
Acceso Completo a Datos
Sistema Específico de Plataforma en la Nube
Ejecución de Tareas en Tiempo Real
Autorización Parcial
Almacenamiento de Datos 2TB Capacidad Escalable, Cientos de TB Capacidad Escalable
Duración de la Batería Batería Externa
12 Horas
Conectado
♾️
Conectado
♾️

Debido a las limitaciones de la duración de la batería, encontramos que la computación se está volviendo cada vez más ligera, lo que ha llevado a los teléfonos móviles y laptops actuales. Por lo tanto, la trayectoria del desarrollo tecnológico siempre ha sido hacia la portabilidad y la colaboración, que son demandas a largo plazo de las personas. Al igual que el desarrollo del comercio electrónico, la gente busca marcas de mayor calidad y experiencias ligeras, queriendo baterías y teléfonos más portátiles. Sin embargo, la potencia de cálculo y la duración de la batería están limitadas por los límites de energía y consumo, lo que restringe el nivel de inteligencia de los modelos que pueden ejecutarse en dispositivos, típicamente en el nivel de 3 mil millones de parámetros.

Esto significa que cuando Windows o el sistema Android de próxima generación estén listos, probablemente se basarán en modelos de nivel 3B y Copilot, inspirando una nueva generación de aplicaciones de IA, como navegadores impulsados por IA, herramientas de respuesta de correo electrónico, etc. El espacio para estas aplicaciones es limitado, pero aún serán muy interesantes porque solo pueden ejecutar modelos de nivel 3B detrás de escena. Esta es una etapa que inevitablemente atravesarán los teléfonos móviles y laptops porque, desde la perspectiva del proceso de silicio, la potencia de cálculo de IA por vatio no cambiará dramáticamente rápido.

Por otro lado, existe la computación en la nube pura. Pero el problema con la nube es: ¿estás dispuesto a entregar tus datos de plataformas como Notion, Slack y Lark a un proveedor de nube? ¿O estás dispuesto a dar acceso completo a un solo proveedor de servicios en la nube a tus cuentas de Taobao, WeChat y financieras? Esto obviamente conlleva un enorme costo psicológico en la toma de decisiones. Por lo tanto, la nube existirá en el nivel más alto, proporcionando las capacidades de modelos más inteligentes a través de llamadas API, penetrando y cubriendo grandes empresas.

Pero en medio de todo, ha surgido una oportunidad para construir un nuevo sistema operativo. Este sistema operativo actuará como un portador para un agente inteligente, funcionando en un dispositivo que está encendido las 24 horas del día. Puedes enviarle tareas desde tu teléfono o laptop, y las ejecutará automáticamente en segundo plano. Tiene una enorme capacidad de almacenamiento de datos, y debido a que no hay limitaciones de potencia de cálculo, puede estar equipado con una GPU de nivel de cien vatios, proporcionando alrededor de 200 TOPS de potencia de cálculo de IA. La iteración de TPUs y NPUs reducirá aún más el costo de la potencia de cálculo, similar a la evolución del chip 8088 en sus inicios.

Sobre esta base, se puede construir un modelo en tiempo real y suficientemente inteligente para servir a todos. Mapeado al presente, estos son los modelos grandes de nivel 7B a 100B que todos están lanzando, que, tras la cuantización, pueden ejecutarse completamente en una arquitectura de cómputo de 200 TOPS. Si hay soporte adecuado del sistema operativo, surgirá un ecosistema rico de aplicaciones de agentes inteligentes. Estos modelos a nivel de sistema están finamente ajustados, lo que a menudo llamamos modelos edge. Aunque la cadena industrial tiene muchos elementos, este nuevo dispositivo tiene una posición clara. Al igual que la laptop que compras, puedes iniciar sesión en varias cuentas sin preocuparte demasiado por problemas de seguridad de datos, porque es tu dispositivo personal de computación. Es lo suficientemente inteligente para servirte las 24 horas del día.

Creadores, Ingenieros y Trabajadores del Conocimiento

Creadores

Creadores

Freelancer

Freelancers

Programadores

Programadores

Dejando de lado innovaciones frontales como gafas y auriculares, en la parte trasera, es muy probable que surja un dispositivo de computación personal, que transicione de la productividad al uso consumidor. Este es un dispositivo que pasa de la computación pura a estar integrado con almacenamiento y computación. Hoy, la movilidad de datos y la colaboración se mejoran, mientras que la demanda de potencia de cómputo también aumenta. Un dispositivo integrado de computación y almacenamiento se convierte en un portador necesario para un agente inteligente personal.

Inicialmente, tales dispositivos pueden enfocarse en grupos como creadores, ingenieros y trabajadores del conocimiento para entrar al mercado. Normalmente tienen una gran cantidad de datos multimedia ricos y necesidades de gestión de activos, y requieren herramientas de productividad para satisfacer sus puntos críticos en almacenamiento y colaboración. Esto es similar a la ruta de penetración de las primeras PC, apuntando a usuarios dispuestos a pagar y con una fuerte demanda de productividad, ingresando así a este nuevo campo de batalla.

ZimaCube – La Nube Privada del Creador

Recientemente realizamos más entrevistas con numerosos creadores y profesionales del contenido, descubriendo una gama más amplia de escenarios de aplicación. De hecho, esta categoría tiene una línea de desarrollo muy larga. El enfoque de ZimaCube es más parecido a la integración vertical de Apple, y necesitamos repensar cómo proceder en diferentes etapas. Actualmente, NAS (Almacenamiento conectado en red) sirve como un portador para la IA. Tiene su propio proceso iterativo. Dentro de este proceso, estamos logrando la comercialización mediante la integración vertical de las soluciones de nube privada de los creadores.

Hardware ZimaCube Interfaz de Software ZimaCube

El hardware no es la barrera, sino el punto de partida; necesita una cierta singularidad.

El sistema y las aplicaciones sirven al escenario.

El hardware es el punto de partida; comienza con el hardware, pero las aplicaciones son donde reside el valor del escenario. Un ecosistema abierto de aplicaciones puede ayudarnos a absorber diversas aplicaciones emergentes como Lotus 1-2-3 anteriormente. No necesitamos apresurarnos a invertir muchos recursos en desarrollar aplicaciones; en cambio, debemos construir una plataforma y promoverla mediante operaciones basadas en la comunidad.

Sistema y Aplicaciones de Terceros

Mantenerse abierto, incorporar aplicaciones principales de la comunidad LocalLLM y construir una App Store con documentación y estándares únicos de aplicación.

La Necesidad de Combinar Sistemas y Comunidades en un Contexto Empresarial Global

Sin embargo, los productos híbridos de hardware y software son realmente difíciles de crear. En la China actual, muchas empresas innovadoras requieren capacidades duales. En términos de capacidades organizativas, por un lado, necesitan seguir un enfoque “waterfall” para la gestión y procesos de producción de hardware para controlar costos y riesgos; por otro lado, necesitan construir una lógica ágil e iterativa para actualizar los sistemas de software semanal o mensualmente.

Las comunidades pueden ser un excelente vehículo para alimentar las necesidades y retroalimentación global de los usuarios hacia nuestros sistemas de software. El hardware en sí mismo puede no requerir actualizaciones frecuentes. Si vendes un power bank, las valoraciones de Amazon y la gestión waterfall pueden completar la definición del producto y un ciclo de ventas de un año. Pero hoy, hay pocos nichos para empresas creativas que dependan únicamente del suministro de hardware. La mayoría de las categorías que dependen de economías de escala están dominadas por gigantes, y no existen nuevas estructuras de tráfico que puedan expandir rápidamente el mercado.

Un Desafío Universal: Un Llamado para la Próxima Generación de Constructores de Plataformas

La historia nos dice que cada era de la computación está definida en última instancia por una o pocas plataformas dominantes. Hoy, construir esta nueva plataforma es una oportunidad y un desafío compartido para todos los innovadores a nivel global. Esto requiere una capacidad sin precedentes y completa que trascienda fronteras:

Integración Profunda de Hardware y Software: Esto requiere la fusión perfecta del rigor “waterfall” del desarrollo de hardware con la iteración “ágil” del software. La innovación exitosa ya no se trata solo de hardware o software, sino de un “Producto Híbrido” perfectamente integrado.

Co-construcción de Ecosistemas y Comunidades: Así como el Homebrew Computer Club impulsó la revolución del PC, las comunidades de código abierto actuales (como LocalLLM) son la cuna de la próxima generación de “killer apps.” Un sistema cerrado puede ganar por un momento, pero solo un ecosistema abierto puede ganar el futuro.

Por lo tanto, la lección definitiva de los años 80 no se trata de geografía, sino de visión. Los vencedores de esa época ganaron no porque estuvieran en Silicon Valley, sino porque integraron con éxito chips, sistemas y aplicaciones en una plataforma que empoderó a las personas y dio paso a una nueva era.

Hoy, el escenario está listo. Para emprendedores e inversores de todo el mundo, la verdadera pregunta no es “dónde” innovar, sino “cómo” organizar eficazmente los nuevos factores de producción—datos privados, modelos de IA y potencia informática accesible—en una nueva plataforma centrada en el ser humano que libere la creatividad. Esto no es una actuación en solitario de ningún país o región, sino un esfuerzo global que nos concierne a todos, con el objetivo de remodelar el futuro de la computación.

Deja un comentario

Su dirección de correo electrónico no será publicada..

    1 out of ...
    Carrito 0

    Tu carrito está actualmente vacío.

    Comenzar a comprar