SuperX lança servidor multi-modelo pronto a usar com GPT-OSS para acelerar IA empresarial

Super X AI Technology Limited (NASDAQ: SUPX) anunciou o lançamento oficial do All-in-One Multi-Model Server (MMS), a sua mais recente solução de infraestrutura de inteligência artificial concebida especificamente para ambientes empresariais. O equipamento chega ao mercado pré-configurado com os novos modelos de linguagem de grande porte de código aberto da OpenAI, GPT-OSS-120B e GPT-OSS-20B, e pretende reduzir drasticamente o tempo necessário para pôr projetos de IA em produção.

Plataforma unificada e pronta a usar

Segundo a empresa, o MMS foi desenvolvido para oferecer uma experiência “out-of-the-box”. O servidor sai de fábrica com hardware e software totalmente integrados, eliminando etapas tradicionais de adaptação de modelos, afinação de desempenho e configuração de segurança. A proposta é permitir que equipas de TI implementem agentes de IA avançados em minutos, em vez de meses, mantendo controlo total sobre dados e processos internos.

O dispositivo é o primeiro da marca a suportar a colaboração dinâmica de múltiplos modelos no mesmo sistema. A arquitetura combina inferência, gestão, aceleração e atualização de modelos de diferentes naturezas, incluindo:

  • Modelos de linguagem generalistas
  • Ferramentas multimodais (texto, imagem, vídeo)
  • Modelos de síntese e reconhecimento de fala
  • Modelos de embeddings e reranking
  • Modelos de texto para imagem

Ao reunir estas capacidades numa só plataforma, a SuperX afirma abrir caminho para aplicações empresariais mais complexas, que requerem agentes inteligentes capazes de cooperar entre si. Um exemplo citado pela companhia é a pesquisa direta em vídeo a partir de uma descrição em texto, identificando pessoas, ações e contextos sem intervenção manual.

Desempenho validado nos últimos benchmarks

O MMS chega equipado com os modelos GPT-OSS-120B e GPT-OSS-20B, tornados públicos pela OpenAI em 5 de agosto de 2025. De acordo com os resultados divulgados pela criadora dos modelos, o GPT-OSS-120B iguala, e em certos testes supera, soluções proprietárias de topo nos já conhecidos Massive Multitask Language Understanding (MMLU) e American Invitational Mathematics Examination (AIME). Ao optar por modelos de código aberto, a SuperX procura garantir um equilíbrio entre desempenho e eficiência de custos, sem depender de APIs externas.

Para os clientes, esta integração significa acesso imediato a capacidades de processamento de linguagem natural de classe mundial, com possibilidade de executar inferência localmente e salvaguardar propriedade intelectual, dados sensíveis e fluxos internos de trabalho.

Segurança de dados e escalabilidade

Questões como proteção de informação confidencial e conformidade regulatória foram tratadas através da adoção de tecnologias de computação confidencial da NVIDIA, presentes na plataforma Blackwell. O servidor inclui um ambiente de execução fiável (Trusted Execution Environment, TEE) que isola os processos de treino, inferência e aprendizagem federada, evitando a exposição de modelos e dados.

A configuração padrão foi pensada para pequenas e médias empresas, mas o fabricante disponibiliza opções de cluster para organizações de grande porte. A edição Cluster, com preço inicial de 4 milhões de dólares, permite agrupar vários servidores e atingir escalabilidade horizontal. Já a versão B200 Standard, cotada em 500 mil dólares, destina-se a ambientes corporativos de média dimensão. A linha inclui ainda duas estações de trabalho: Workstation Ultra (250 mil dólares) para profissionais que necessitam de maior processamento local e Workstation Standard (50 mil dólares) para utilização individual em contexto empresarial.

Quatro pilares de inovação funcional

A SuperX resume o conjunto de avanços do MMS em quatro pontos essenciais:

1. Salto cognitivo: múltiplos agentes inteligentes cooperam para resolver tarefas de maior complexidade, como indexar conteúdo audiovisual a partir de texto.

SuperX lança servidor multi-modelo pronto a usar com GPT-OSS para acelerar IA empresarial - Imagem do artigo original

2. Empoderamento do conhecimento: um assistente integrado com base documental e mais de 60 agentes pré-configurados (redação de documentos oficiais, consultas jurídicas, comparações de políticas) automatiza processos de negócio «do pensamento ao resultado».

3. Cache de modelos coordenada na cloud: a ligação entre repositórios locais e na nuvem garante acesso imediato às versões mais recentes dos modelos, sem períodos de espera.

4. Integração total: o utilizador interage com um único ponto de gestão que abrange desde o chip até ao serviço de modelo, sem necessidade de conhecer detalhes da pilha tecnológica subjacente.

Foco na produtividade corporativa

Para lá da componente técnica, a empresa destaca ganhos operacionais. O servidor inclui guias de utilização e modelos de configuração pré-definidos que permitem a colaboradores de negócio, mesmo sem experiência em programação, criar agentes inteligentes via interfaces no-code ou low-code. A intenção é democratizar o acesso a ferramentas de IA interna, reduzindo dependências de equipas especializadas.

Além disso, a integração completa de hardware e software pretende baixar o investimento em infraestrutura adicional. Segundo a SuperX, o MMS oferece uma alternativa de elevado desempenho a serviços de Machine Learning as a Service (MaaS) baseados em API, cujo custo cresce de forma proporcional ao volume de chamadas.

Visão de futuro

Para o diretor-tecnológico da SuperX, Kenny Sng, a colaboração de múltiplos modelos representa “um passo fundamental na evolução rumo à Inteligência Artificial Geral (AGI) aplicada ao quotidiano das pessoas”. O executivo reforça que o lançamento do MMS inaugura um ecossistema onde parceiros empresariais e desenvolvedores de agentes poderão explorar novas fronteiras de automação, análise e tomada de decisão.

O novo servidor amplia o portefólio de infraestrutura de IA da empresa, que no dia 30 de julho de 2025 apresentou o modelo XN9160-B200. Com a incorporação do MMS, a SuperX passa a abranger desde estações de trabalho individuais até clusters de alto desempenho, oferecendo uma solução escalável para diferentes fases de adoção de inteligência artificial.

Encomendas para todas as variantes do All-in-One Multi-Model Server já estão abertas através dos canais oficiais da SuperX. Com a disponibilidade imediata, a empresa aposta em conquistar organizações que procuram acelerar iniciativas de IA generativa, mantendo controlo sobre custos, segurança e continuidade operacional.

Eu sou apaixonado por escrever e pesquisar assuntos fascinantes. Com uma mente curiosa e inquieta, busco constantemente explorar novas ideias e descobrir insights inspiradores.