Autosserviço do Cognee: Testes de Desempenho de LLM
Testando o Cognee com LLMs locais - resultados reais
Cognee é um framework Python para construir grafos de conhecimento a partir de documentos usando LLMs. Mas funciona com modelos auto-hospedados?
Testando o Cognee com LLMs locais - resultados reais
Cognee é um framework Python para construir grafos de conhecimento a partir de documentos usando LLMs. Mas funciona com modelos auto-hospedados?
Como resolvi problemas de rede no Ubuntu
Após instalar automaticamente um novo kernel, Ubuntu 24.04 perdeu a rede Ethernet. Este problema frustrante aconteceu comigo pela segunda vez, então estou documentando a solução aqui para ajudar outros que enfrentam o mesmo problema.
Posto curto, apenas registrando o preço
Com essa volatilidade louca dos preços da RAM, para formar e ter uma melhor ideia, vamos rastrear o preço da RAM na Austrália primeiro nós mesmos.
Preços da RAM disparam entre 163% e 619% à medida que a demanda por IA pressiona a oferta
O mercado de memória está experimentando uma volatilidade de preços sem precedentes no final de 2025, com preços da RAM disparando dramaticamente em todos os segmentos.
Preços de GPUs para Consumo Adequadas para IA - RTX 5080 e RTX 5090
Vamos comparar os preços das principais GPUs de consumo para o topo, que são adequadas para LLMs em particular e para a IA em geral.
Especificamente, estou olhando para
preços do RTX-5080 e RTX-5090.
Implante IA empresarial em hardware de baixo custo com modelos abertos
A democratização da IA está aqui. Com LLMs de código aberto como Llama 3, Mixtral e Qwen agora rivalizando com modelos proprietários, as equipes podem construir infraestrutura poderosa de IA usando hardware de consumo - reduzindo custos enquanto mantêm o controle completo sobre a privacidade dos dados e o deployment.
Habilite a aceleração da GPU para o Docker Model Runner com suporte à NVIDIA CUDA
Docker Model Runner é a ferramenta oficial do Docker para executar modelos de IA localmente, mas habilitar a aceleração da GPU da NVidia no Docker Model Runner requer uma configuração específica.
Benchmarks do GPT-OSS 120b em três plataformas de IA
Fui atrás de alguns testes de desempenho interessantes do GPT-OSS 120b em execução no Ollama em três plataformas diferentes: NVIDIA DGX Spark, Mac Studio e RTX 4080. O modelo GPT-OSS 120b da biblioteca Ollama tem 65GB, o que significa que ele não cabe na VRAM de 16GB de um RTX 4080 (ou no mais novo RTX 5080).
Referência rápida para comandos do Docker Model Runner
Docker Model Runner (DMR) é a solução oficial do Docker para executar modelos de IA localmente, introduzida em abril de 2025. Este guia rápido fornece uma referência rápida para todos os comandos essenciais, configurações e melhores práticas.
Gerenciamento simples de VM para Linux com GNOME Boxes
No cenário atual da computação, a virtualização tornou-se essencial para desenvolvimento, testes e execução de múltiplos sistemas operacionais. Para usuários de Linux que buscam uma forma simples e intuitiva de gerenciar máquinas virtuais, GNOME Boxes destaca-se como uma opção leve e amigável ao usuário que prioriza a facilidade de uso sem sacrificar a funcionalidade.
Chipsets especializados estão tornando a inferência de IA mais rápida e barata.
O futuro do IA não é apenas sobre modelos mais inteligentes modelos — é sobre silício mais inteligente.
Hardware especializado para inferência de LLM está impulsionando uma revolução semelhante à mudança do mineração de Bitcoin para ASICs.
Disponibilidade, preços reais no varejo em seis países e comparação com o Mac Studio.
NVIDIA DGX Spark é real, disponível para venda a partir de 15 de outubro de 2025, e direcionado a desenvolvedores de CUDA que precisam de trabalho local com LLM com uma pilha integrada de IA da NVIDIA. Preço de venda sugerido nos EUA $3.999; o preço retalhista em UK/DE/JP é mais alto devido ao imposto sobre o valor agregado e ao canal. Preços públicos em AUD/KRW ainda não estão amplamente divulgados.
Preços de GPUs para Consumo Adequadas para IA - RTX 5080 e RTX 5090
Mais uma vez, vamos comparar os preços das GPUs de alto desempenho para consumidores, que são adequadas, em particular, para LLMs e, em geral, para IA.
Especificamente, estou olhando para preços do RTX-5080 e RTX-5090. Eles tiveram uma leve redução.
Pequena lista de aplicações para monitoramento de carga da GPU
Aplicações de monitoramento de carga da GPU:
nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Em julho de 2025, em breve deverá estar disponível
Nvidia está prestes a lançar NVIDIA DGX Spark - pequeno supercomputador de IA baseado na arquitetura Blackwell com 128+GB de memória unificada e 1 PFLOPS de desempenho de IA. Dispositivo interessante para executar LLMs.
Atualização de preços de GPU adequada para IA - RTX 5080 e RTX 5090
Vamos comparar preços para GPUs de topo de linha para consumidores, que são adequadas para LLMs em particular e para IA em geral. Especificamente, dê uma olhada em preços da RTX 5080 e RTX 5090. Eles tiveram uma leve queda.