Introdução
Este artigo de blog é publicado pela Zima e baseia-se num vídeo criado pelo Zero, um criador de conteúdo tecnológico japonês que tem explorado servidores de placa única e experiências de laboratórios domésticos no seu canal do YouTube. Nós, na Zima, estamos profundamente gratos ao Zero pelo seu entusiasmo, criatividade e vontade de levar o ZimaBoard 2 muito além dos casos de uso convencionais. O seguinte é uma adaptação editorial da transcrição do seu vídeo, reestruturada para leitores interessados em construções de servidores domésticos, hardware de redes e supercomputação DIY. Todos os dados técnicos, passos e descobertas são preservados do conteúdo original.
O que é preciso para construir um supercomputador em casa? Para a maioria das pessoas, a resposta envolve racks de nível empresarial, uma sala de servidores dedicada e um orçamento digno de um centro de dados. Mas o Zero teve uma ideia diferente — que começa com cinco servidores compactos de placa única numa secretária e termina com um switch InfiniBand de 56Gbps a ligá-los todos num cluster de computação unificado.
Esta é a Parte 1 dessa jornada: o desembrulho, a seleção do hardware, a montagem e a primeira inicialização bem-sucedida de todos os cinco nós. Ainda sem resultados — mas a base é extraordinária.
O que é o ZimaBoard 2 e por que é importante para esta construção?
Antes de mergulhar na configuração do cluster, vale a pena entender por que o Zero escolheu ZimaBoard 2 como a base para este experimento.
O ZimaBoard 2 é um servidor de placa única (SBS) — uma categoria distinta do mais familiar computador de placa única (SBC) como o Raspberry Pi. Embora ambos sejam compactos e de baixo consumo, a designação SBS indica uma filosofia de design diferente: estes dispositivos são construídos para funcionar como servidores, não apenas como computadores para entusiastas. O ZimaBoard 2 é desenvolvido pela IceWhale Technology e é capaz de correr ZimaOS, TrueNAS, Proxmox, Debian, pfSense, entre outros.
O que distingue o ZimaBoard 2 da maioria dos mini computadores no mercado — e o que o tornou a peça central deste experimento de servidor doméstico — é a sua ranhura PCIe 3.0 ×4 nativa. Como explica o Zero:
A maioria dos pequenos computadores não vem com uma ranhura PCIe. Mas o ZimaBoard tem uma por defeito. É isso que torna este experimento possível.
Este slot permite a instalação de NICs 10G, adaptadores NVMe, GPUs e — fundamental para este projeto — placas de rede InfiniBand de alta velocidade. Combinado com Ethernet dual 2.5G incorporada, o ZimaBoard 2 oferece um nível de expansibilidade que é realmente raro no seu ponto de preço.
Especificações adicionais relevantes para esta construção:
- Suporte SATA nativo para HDDs/SSDs de 2,5" (não são necessários adaptadores)
- Baixo consumo de energia — ideal para operação 24/7 de servidor doméstico
- Design silencioso, compatível com funcionamento sem ventoinhas
- Fator de forma pequeno que cabe dentro de um rack padrão com a solução de montagem correta
A Visão: Um Supercomputador DIY Usando 5 Nós de Servidor Doméstico
O conceito de Zero é simples na teoria e ambicioso na prática: ligar cinco unidades ZimaBoard 2 via rede de alta velocidade para que os seus recursos computacionais combinados possam ser tratados como um único sistema unificado — uma clássica arquitetura de cluster de computação de alto desempenho (HPC).
Isto não é uma ideia nova. Supercomputadores têm sido construídos há muito tempo ligando muitos nós pequenos em conjunto. O que é novo aqui é o preço e o formato. Zero tinha tentado anteriormente um experimento semelhante usando quatro computadores Lichee RV Nano, mas concluiu que o ZimaBoard 2 oferecia uma maior probabilidade de sucesso:
"Quando pensei melhor, percebi que isto poderia funcionar ainda melhor. As especificações são superiores, e o slot PCIe já está lá. A taxa de sucesso é maior do que com os pequenos computadores que usei antes."
A IceWhale Technology, fabricante do ZimaBoard 2, concordou em patrocinar o hardware — fornecendo cinco unidades completas juntamente com os seus kits de acessórios. Zero deixa claro que não houve troca de dinheiro; o acordo foi uma provisão de produto para os fins deste experimento.
Visão geral do hardware: tudo o que foi usado nesta construção
1. Cinco unidades ZimaBoard 2
Cada unidade chegou em embalagem idêntica com a mesma especificação. Zero nota que a placa em si é apenas a parte superior da unidade montada — a secção inferior é um suporte para disco rígido e chassis de montagem. Cada kit incluía:
- A placa ZimaBoard 2
- Cabo de extensão PCIe
- Kit de parafusos e suporte PCIe
- Suporte para disco rígido
A montagem foi concluída para todas as cinco unidades. Foi instalado um disco rígido por unidade — não para uso de armazenamento, mas porque a caixa do ZimaBoard 2 exige que um disco esteja presente para que o suporte PCIe seja montado corretamente.
2. Placas Mellanox ConnectX-3 Pro FDR InfiniBand (×5)
É aqui que a construção avança decisivamente para o território profissional. Zero escolheu a placa Mellanox ConnectX-3 Pro FDR InfiniBand — um adaptador de rede PCIe capaz de:
- Até 40GbE (40 Gigabit Ethernet) através de protocolos Ethernet padrão
- Até 56Gbps usando o protocolo FDR InfiniBand (Fourteen Data Rate)
A placa usa uma porta QSFP+ (Quad Small Form-factor Pluggable Plus) — um tipo de conector normalmente encontrado apenas em centros de dados e ambientes de servidores empresariais.
Uma característica chave da ConnectX-3 Pro é o suporte a RDMA (Remote Direct Memory Access) , que permite transferir dados entre sistemas sem sobrecarregar a CPU. Como explica a Zero:
"Aparentemente, esta placa consegue gerir a comunicação de dados sem sobrecarregar a CPU. É isso que permite a troca de dados a uma velocidade extraordinária."
A limitação prática: o slot PCIe do ZimaBoard 2 é ×4, enquanto a ConnectX-3 Pro é nativamente uma placa ×8. Isto significa que a placa sobrepõe-se fisicamente ao slot ligeiramente, e a largura de banda máxima é limitada a aproximadamente 32Gbps no ZimaBoard 2 — ainda mais de três vezes a velocidade de uma ligação 10GbE, e totalmente suficiente para este experimento.
"Mesmo a 32Gbps, é mais rápido do que LAN 10G. E é uma placa que posso usar para projetos futuros também — por isso estou a encará-la como um investimento."

3. Cabos DAC QSFP+ personalizados de 56Gbps (×5)
Cabos QSFP+ padrão com 0,5m de comprimento são ou indisponíveis ou proibitivamente caros no mercado de consumo. A solução da Zero: mandá-los fabricar à medida.
Os cabos são cabos DAC (Direct Attach Copper) — cabos passivos de cobre que transportam sinais de alta velocidade entre portas QSFP+ sem necessidade de transceptores ópticos. Para distâncias inferiores a 1 metro, os cabos DAC de cobre são económicos e totalmente capazes de suportar uma largura de banda de 56Gbps.
Cada cabo foi testado e verificado a 56Gbps antes da entrega. A Zero nota que até têm um logótipo personalizado — um detalhe pequeno mas satisfatório para um projeto desta escala.
"Se alguém quiser um, diga-me nos comentários. Talvez consiga organizar a fabricação — embora não tenha a certeza de quem realmente o queira."
4. Switch Mellanox SX6036 InfiniBand
Ligar cinco nós num cluster requer mais do que cabos ponto a ponto. É necessário um switch para que todos os nós possam comunicar entre si simultaneamente — o equivalente a um hub de rede, mas para InfiniBand.
Zero escolheu o Mellanox SX6036, um switch InfiniBand QSFP+ de 36 portas desenhado para ambientes empresariais e HPC. Especificações principais:
- 36 portas QSFP+ — mais do que suficiente para cinco nós, com espaço para expansão
- Suporte completo 56Gbps FDR InfiniBand em todas as portas
- Switch gerido com a sua própria interface de configuração
O SX6036 é uma unidade para montagem em rack e visivelmente grande comparado com os nós ZimaBoard 2. Zero reconhece o contraste:
"É enorme. Não é algo que normalmente se colocaria numa secretária. Mas é um equipamento de nível servidor, por isso é esperado."
Todos os componentes no caminho da rede — as placas, os cabos e o switch — são classificados para 56Gbps, garantindo que não há gargalo introduzido pela camada de interconexão. O limite efetivo permanece a interface PCIe ×4 do ZimaBoard 2 a ~32Gbps por nó.
5. Switch LAN Empresarial (48-Portas)
Para manter o tráfego de gestão e o tráfego de dados InfiniBand separados, Zero também instalou um switch LAN empresarial de 48 portas para conectividade Ethernet padrão. Cada ZimaBoard 2 liga-se a este switch através da sua porta Ethernet 2.5G incorporada, fornecendo acesso à internet e gestão de rede padrão — completamente independente da rede do cluster InfiniBand.

Montagem e Primeiro Arranque: O Que Aconteceu
Com todo o hardware montado e ligado, Zero ligou o sistema. A sequência:
- Switch Mellanox SX6036 ligado — imediatamente ruidoso devido aos ventiladores de alta velocidade
- As cinco unidades ZimaBoard 2 ligadas — slots PCIe iluminados, indicando reconhecimento das placas
- Switch LAN ligado à fonte de internet ascendente
- Varredura de rede realizada — todas as cinco unidades ZimaBoard 2 apareceram na rede
"Estão a aparecer. Um, dois, três, quatro — e aí está o Chappy, a unidade de IA da última vez. Cinco no total. Todos ativos."
Zero entrou depois numa unidade via tablet, confirmando a ecrã de boas-vindas do ZimaOS e o arranque bem-sucedido. Uma verificação das interfaces de rede mostrou que a placa Mellanox foi reconhecida ao nível do hardware (listada sob Mellanox Technologies), mas nenhum driver foi carregado — comportamento esperado, pois o ZimaOS não inclui drivers InfiniBand por defeito.
"As placas PCIe estão ligadas e a receber energia. Mas o sistema operativo não tem o driver Mellanox incorporado, por isso ainda não pode carregar. Isso é algo que vamos abordar no próximo vídeo, quando tentarmos a ligação do cluster."
O Que Vem a Seguir
Esta foi a Parte 1: aquisição de hardware, montagem e verificação básica de arranque. O trabalho que se segue inclui:
- Instalar drivers InfiniBand em todos os cinco nós ZimaBoard 2
- Configurar o switch Mellanox SX6036 (que requer o seu próprio processo de configuração)
- Montar tudo num rack de servidores — o Zero já desenhou um suporte para impressão 3D, mas ainda não o imprimiu
- Executar benchmarks reais do cluster para medir o desempenho combinado de computação
- Testar cargas de trabalho reais — a comunidade está convidada a sugerir experiências nos comentários
O Zero também é franco sobre a economia da construção:
"O próprio ZimaBoard 2 não é extremamente caro. Quando se considera a expansibilidade e a qualidade de construção, o preço é razoável. É um pouco demais para um brinquedo, mas para um experimento, é um preço justo."

Por que o ZimaBoard 2 é a Base Certa para um Cluster de Servidores Domésticos
Este projeto ilustra algo importante sobre a filosofia de design do ZimaBoard 2. A maioria dos mini computadores — mesmo os capazes — são sistemas fechados. Funcionam bem como nós de servidores domésticos autónomos, mas não podem ser expandidos ou interligados de forma significativa ao nível do hardware.
O ZimaBoard 2 ultrapassa esse limite. A ranhura PCIe nativa não é uma funcionalidade de marketing — é uma decisão arquitetónica genuína que permite verdadeira expansibilidade: NICs 10G, armazenamento NVMe, aceleração GPU, e, como este projeto demonstra, interconexões InfiniBand de nível empresarial.
Quer esteja a correr Plex, Pi-hole, Proxmox ou a construir um cluster de servidores domésticos que rivalize com um pequeno centro de dados, o ZimaBoard 2 foi concebido para crescer com as suas ambições. Pequeno, personalizável e — como o Zero disse — "parece um brinquedo mas funciona como uma besta."
Acompanhe a Jornada DIY do Supercomputador do Zero
O projeto do supercomputador doméstico do Zero é uma das construções DIY de servidores domésticos mais ambiciosas tecnicamente que vimos, construídas em torno do ZimaBoard 2. Só na Parte 1, o conjunto de hardware inclui cinco nós ZimaBoard 2, cinco placas Mellanox ConnectX-3 Pro InfiniBand, cinco cabos DAC personalizados de 56Gbps, um switch Mellanox SX6036 de 36 portas e um switch LAN empresarial de 48 portas.
Tudo arrancou. Tudo foi reconhecido. A base é sólida.
Nós, na Zima, temos orgulho de ter apoiado este experimento e esperamos partilhar os resultados à medida que o Zero avança para um cluster totalmente operacional. Subscreva o canal do Zero para acompanhar a jornada e fique atento ao blog da Zima para mais atualizações.
Centro de Campanha Zima
Mais para Ler

What is a Local AI Server?
Stop paying monthly fees and risking data leaks with cloud bots. Build a private local AI server to run powerful models like Llama 3...

O Que Acontece Quando ChatGPT, Claude, Gemini, Kimi e Grok Trabalham Juntos num Servidor Doméstico
Escale o seu fluxo de trabalho executando uma equipa de IA multi-agente num servidor doméstico de baixo consumo. Resolva tarefas complexas rapidamente enquanto os...

O Arquivista Digital: Preservar a História da Internet e as Memórias Familiares com um Servidor Plex
Configure um servidor Plex como um arquivo de media familiar - utilize backups 3-2-1, pastas organizadas, carregamentos automáticos e metadados para proteger fotos e...


