Do Desembalar aos 56Gbps: O Plano em 5 Passos para Construir um Supercomputador Servidor Doméstico com ZimaBoard 2

Eva Wong é a Redatora Técnica e entusiasta residente na ZimaSpace. Uma geek de longa data com paixão por homelabs e software de código aberto, ela é especialista em traduzir conceitos técnicos complexos em guias acessíveis e práticos. Eva acredita que a auto-hospedagem deve ser divertida, não intimidante. Através dos seus tutoriais, ela capacita a comunidade a desmistificar configurações de hardware, desde construir o seu primeiro NAS até dominar os contentores Docker.

Introdução

Este artigo de blog é publicado pela Zima e baseia-se num vídeo criado pelo Zero, um criador de conteúdo tecnológico japonês que tem explorado servidores de placa única e experiências de laboratórios domésticos no seu canal do YouTube. Nós, na Zima, estamos profundamente gratos ao Zero pelo seu entusiasmo, criatividade e vontade de levar o ZimaBoard 2 muito além dos casos de uso convencionais. O seguinte é uma adaptação editorial da transcrição do seu vídeo, reestruturada para leitores interessados em construções de servidores domésticos, hardware de redes e supercomputação DIY. Todos os dados técnicos, passos e descobertas são preservados do conteúdo original.

O que é preciso para construir um supercomputador em casa? Para a maioria das pessoas, a resposta envolve racks de nível empresarial, uma sala de servidores dedicada e um orçamento digno de um centro de dados. Mas o Zero teve uma ideia diferente — que começa com cinco servidores compactos de placa única numa secretária e termina com um switch InfiniBand de 56Gbps a ligá-los todos num cluster de computação unificado.

Esta é a Parte 1 dessa jornada: o desembrulho, a seleção do hardware, a montagem e a primeira inicialização bem-sucedida de todos os cinco nós. Ainda sem resultados — mas a base é extraordinária.

O que é o ZimaBoard 2 e por que é importante para esta construção?

Antes de mergulhar na configuração do cluster, vale a pena entender por que o Zero escolheu ZimaBoard 2 como a base para este experimento.

O ZimaBoard 2 é um servidor de placa única (SBS) — uma categoria distinta do mais familiar computador de placa única (SBC) como o Raspberry Pi. Embora ambos sejam compactos e de baixo consumo, a designação SBS indica uma filosofia de design diferente: estes dispositivos são construídos para funcionar como servidores, não apenas como computadores para entusiastas. O ZimaBoard 2 é desenvolvido pela IceWhale Technology e é capaz de correr ZimaOS, TrueNAS, Proxmox, Debian, pfSense, entre outros.

O que distingue o ZimaBoard 2 da maioria dos mini computadores no mercado — e o que o tornou a peça central deste experimento de servidor doméstico — é a sua ranhura PCIe 3.0 ×4 nativa. Como explica o Zero:

A maioria dos pequenos computadores não vem com uma ranhura PCIe. Mas o ZimaBoard tem uma por defeito. É isso que torna este experimento possível.

Este slot permite a instalação de NICs 10G, adaptadores NVMe, GPUs e — fundamental para este projeto — placas de rede InfiniBand de alta velocidade. Combinado com Ethernet dual 2.5G incorporada, o ZimaBoard 2 oferece um nível de expansibilidade que é realmente raro no seu ponto de preço.
Especificações adicionais relevantes para esta construção:

  • Suporte SATA nativo para HDDs/SSDs de 2,5" (não são necessários adaptadores)
  • Baixo consumo de energia — ideal para operação 24/7 de servidor doméstico
  • Design silencioso, compatível com funcionamento sem ventoinhas
  • Fator de forma pequeno que cabe dentro de um rack padrão com a solução de montagem correta

Single board computer zimaboard2

A Visão: Um Supercomputador DIY Usando 5 Nós de Servidor Doméstico

O conceito de Zero é simples na teoria e ambicioso na prática: ligar cinco unidades ZimaBoard 2 via rede de alta velocidade para que os seus recursos computacionais combinados possam ser tratados como um único sistema unificado — uma clássica arquitetura de cluster de computação de alto desempenho (HPC).

Isto não é uma ideia nova. Supercomputadores têm sido construídos há muito tempo ligando muitos nós pequenos em conjunto. O que é novo aqui é o preço e o formato. Zero tinha tentado anteriormente um experimento semelhante usando quatro computadores Lichee RV Nano, mas concluiu que o ZimaBoard 2 oferecia uma maior probabilidade de sucesso:

"Quando pensei melhor, percebi que isto poderia funcionar ainda melhor. As especificações são superiores, e o slot PCIe já está lá. A taxa de sucesso é maior do que com os pequenos computadores que usei antes."

A IceWhale Technology, fabricante do ZimaBoard 2, concordou em patrocinar o hardware — fornecendo cinco unidades completas juntamente com os seus kits de acessórios. Zero deixa claro que não houve troca de dinheiro; o acordo foi uma provisão de produto para os fins deste experimento.

Visão geral do hardware: tudo o que foi usado nesta construção

1. Cinco unidades ZimaBoard 2

Cada unidade chegou em embalagem idêntica com a mesma especificação. Zero nota que a placa em si é apenas a parte superior da unidade montada — a secção inferior é um suporte para disco rígido e chassis de montagem. Cada kit incluía:

  • A placa ZimaBoard 2
  • Cabo de extensão PCIe
  • Kit de parafusos e suporte PCIe
  • Suporte para disco rígido

A montagem foi concluída para todas as cinco unidades. Foi instalado um disco rígido por unidade — não para uso de armazenamento, mas porque a caixa do ZimaBoard 2 exige que um disco esteja presente para que o suporte PCIe seja montado corretamente.

2. Placas Mellanox ConnectX-3 Pro FDR InfiniBand (×5)

É aqui que a construção avança decisivamente para o território profissional. Zero escolheu a placa Mellanox ConnectX-3 Pro FDR InfiniBand — um adaptador de rede PCIe capaz de:

  • Até 40GbE (40 Gigabit Ethernet) através de protocolos Ethernet padrão
  • Até 56Gbps usando o protocolo FDR InfiniBand (Fourteen Data Rate)

A placa usa uma porta QSFP+ (Quad Small Form-factor Pluggable Plus) — um tipo de conector normalmente encontrado apenas em centros de dados e ambientes de servidores empresariais.

Uma característica chave da ConnectX-3 Pro é o suporte a RDMA (Remote Direct Memory Access) , que permite transferir dados entre sistemas sem sobrecarregar a CPU. Como explica a Zero:

"Aparentemente, esta placa consegue gerir a comunicação de dados sem sobrecarregar a CPU. É isso que permite a troca de dados a uma velocidade extraordinária."

A limitação prática: o slot PCIe do ZimaBoard 2 é ×4, enquanto a ConnectX-3 Pro é nativamente uma placa ×8. Isto significa que a placa sobrepõe-se fisicamente ao slot ligeiramente, e a largura de banda máxima é limitada a aproximadamente 32Gbps no ZimaBoard 2 — ainda mais de três vezes a velocidade de uma ligação 10GbE, e totalmente suficiente para este experimento.

"Mesmo a 32Gbps, é mais rápido do que LAN 10G. E é uma placa que posso usar para projetos futuros também — por isso estou a encará-la como um investimento."

Close-up de uma montagem de servidor ZimaBoard 2 com um ventilador de arrefecimento, suporte duplo para discos rígidos e uma placa de expansão de rede PCIe numa secretária de madeira.

3. Cabos DAC QSFP+ personalizados de 56Gbps (×5)

Cabos QSFP+ padrão com 0,5m de comprimento são ou indisponíveis ou proibitivamente caros no mercado de consumo. A solução da Zero: mandá-los fabricar à medida.
Os cabos são cabos DAC (Direct Attach Copper) — cabos passivos de cobre que transportam sinais de alta velocidade entre portas QSFP+ sem necessidade de transceptores ópticos. Para distâncias inferiores a 1 metro, os cabos DAC de cobre são económicos e totalmente capazes de suportar uma largura de banda de 56Gbps.
Cada cabo foi testado e verificado a 56Gbps antes da entrega. A Zero nota que até têm um logótipo personalizado — um detalhe pequeno mas satisfatório para um projeto desta escala.

"Se alguém quiser um, diga-me nos comentários. Talvez consiga organizar a fabricação — embora não tenha a certeza de quem realmente o queira."

4. Switch Mellanox SX6036 InfiniBand

Ligar cinco nós num cluster requer mais do que cabos ponto a ponto. É necessário um switch para que todos os nós possam comunicar entre si simultaneamente — o equivalente a um hub de rede, mas para InfiniBand.
Zero escolheu o Mellanox SX6036, um switch InfiniBand QSFP+ de 36 portas desenhado para ambientes empresariais e HPC. Especificações principais:

  • 36 portas QSFP+ — mais do que suficiente para cinco nós, com espaço para expansão
  • Suporte completo 56Gbps FDR InfiniBand em todas as portas
  • Switch gerido com a sua própria interface de configuração

O SX6036 é uma unidade para montagem em rack e visivelmente grande comparado com os nós ZimaBoard 2. Zero reconhece o contraste:

"É enorme. Não é algo que normalmente se colocaria numa secretária. Mas é um equipamento de nível servidor, por isso é esperado."

Todos os componentes no caminho da rede — as placas, os cabos e o switch — são classificados para 56Gbps, garantindo que não há gargalo introduzido pela camada de interconexão. O limite efetivo permanece a interface PCIe ×4 do ZimaBoard 2 a ~32Gbps por nó.

5. Switch LAN Empresarial (48-Portas)

Para manter o tráfego de gestão e o tráfego de dados InfiniBand separados, Zero também instalou um switch LAN empresarial de 48 portas para conectividade Ethernet padrão. Cada ZimaBoard 2 liga-se a este switch através da sua porta Ethernet 2.5G incorporada, fornecendo acesso à internet e gestão de rede padrão — completamente independente da rede do cluster InfiniBand.

Cinco nós de servidor ZimaBoard 2 alinhados numa secretária, cada um integrado com suportes de armazenamento e placas de expansão PCIe para um projeto personalizado de cluster multinó.

Montagem e Primeiro Arranque: O Que Aconteceu

Com todo o hardware montado e ligado, Zero ligou o sistema. A sequência:

  1. Switch Mellanox SX6036 ligado — imediatamente ruidoso devido aos ventiladores de alta velocidade
  2. As cinco unidades ZimaBoard 2 ligadas — slots PCIe iluminados, indicando reconhecimento das placas
  3. Switch LAN ligado à fonte de internet ascendente
  4. Varredura de rede realizada — todas as cinco unidades ZimaBoard 2 apareceram na rede

"Estão a aparecer. Um, dois, três, quatro — e aí está o Chappy, a unidade de IA da última vez. Cinco no total. Todos ativos."

Zero entrou depois numa unidade via tablet, confirmando a ecrã de boas-vindas do ZimaOS e o arranque bem-sucedido. Uma verificação das interfaces de rede mostrou que a placa Mellanox foi reconhecida ao nível do hardware (listada sob Mellanox Technologies), mas nenhum driver foi carregado — comportamento esperado, pois o ZimaOS não inclui drivers InfiniBand por defeito.

"As placas PCIe estão ligadas e a receber energia. Mas o sistema operativo não tem o driver Mellanox incorporado, por isso ainda não pode carregar. Isso é algo que vamos abordar no próximo vídeo, quando tentarmos a ligação do cluster."

O Que Vem a Seguir

Esta foi a Parte 1: aquisição de hardware, montagem e verificação básica de arranque. O trabalho que se segue inclui:

  • Instalar drivers InfiniBand em todos os cinco nós ZimaBoard 2
  • Configurar o switch Mellanox SX6036 (que requer o seu próprio processo de configuração)
  • Montar tudo num rack de servidores — o Zero já desenhou um suporte para impressão 3D, mas ainda não o imprimiu
  • Executar benchmarks reais do cluster para medir o desempenho combinado de computação
  • Testar cargas de trabalho reais — a comunidade está convidada a sugerir experiências nos comentários

O Zero também é franco sobre a economia da construção:

"O próprio ZimaBoard 2 não é extremamente caro. Quando se considera a expansibilidade e a qualidade de construção, o preço é razoável. É um pouco demais para um brinquedo, mas para um experimento, é um preço justo."

Vários clusters de servidores ZimaBoard 2 interligados com cabos num grande switch de rede de 48 portas para construir um supercomputador de laboratório doméstico de alto desempenho.

Por que o ZimaBoard 2 é a Base Certa para um Cluster de Servidores Domésticos

Este projeto ilustra algo importante sobre a filosofia de design do ZimaBoard 2. A maioria dos mini computadores — mesmo os capazes — são sistemas fechados. Funcionam bem como nós de servidores domésticos autónomos, mas não podem ser expandidos ou interligados de forma significativa ao nível do hardware.
O ZimaBoard 2 ultrapassa esse limite. A ranhura PCIe nativa não é uma funcionalidade de marketing — é uma decisão arquitetónica genuína que permite verdadeira expansibilidade: NICs 10G, armazenamento NVMe, aceleração GPU, e, como este projeto demonstra, interconexões InfiniBand de nível empresarial.
Quer esteja a correr Plex, Pi-hole, Proxmox ou a construir um cluster de servidores domésticos que rivalize com um pequeno centro de dados, o ZimaBoard 2 foi concebido para crescer com as suas ambições. Pequeno, personalizável e — como o Zero disse — "parece um brinquedo mas funciona como uma besta."

Acompanhe a Jornada DIY do Supercomputador do Zero

O projeto do supercomputador doméstico do Zero é uma das construções DIY de servidores domésticos mais ambiciosas tecnicamente que vimos, construídas em torno do ZimaBoard 2. Só na Parte 1, o conjunto de hardware inclui cinco nós ZimaBoard 2, cinco placas Mellanox ConnectX-3 Pro InfiniBand, cinco cabos DAC personalizados de 56Gbps, um switch Mellanox SX6036 de 36 portas e um switch LAN empresarial de 48 portas.
Tudo arrancou. Tudo foi reconhecido. A base é sólida.
Nós, na Zima, temos orgulho de ter apoiado este experimento e esperamos partilhar os resultados à medida que o Zero avança para um cluster totalmente operacional. Subscreva o canal do Zero para acompanhar a jornada e fique atento ao blog da Zima para mais atualizações.

Centro de Campanha Zima

Mais para Ler

What is a Local AI Server?
Apr 15, 2026Tutorials & Setup

What is a Local AI Server?

Stop paying monthly fees and risking data leaks with cloud bots. Build a private local AI server to run powerful models like Llama 3...

Get More Builds Like This

Stay in the Loop

Get updates from Zima - new products, exclusive deals, and real builds from the community.

Stay in the Loop preferences

We respect your inbox. Unsubscribe anytime.