
NVIDIA DGX Spark - 새로운 소형 AI 슈퍼컴퓨터
2025년 7월에 곧 제공될 예정입니다.
NVIDIA는 곧 NVIDIA DGX Spark를 출시할 예정입니다. 이는 Blackwell 아키텍처를 기반으로 한 소형 AI 슈퍼컴퓨터로, 128GB 이상의 통합 RAM과 1 PFLOPS의 AI 성능을 제공합니다. LLM을 실행하는 데 매우 적합한 장비입니다.
2025년 7월에 곧 제공될 예정입니다.
NVIDIA는 곧 NVIDIA DGX Spark를 출시할 예정입니다. 이는 Blackwell 아키텍처를 기반으로 한 소형 AI 슈퍼컴퓨터로, 128GB 이상의 통합 RAM과 1 PFLOPS의 AI 성능을 제공합니다. LLM을 실행하는 데 매우 적합한 장비입니다.
AI에 적합한 GPU 가격 업데이트 - RTX 5080 및 RTX 5090
최상위 소비자용 GPU의 가격을 비교해 보겠습니다. 특히 LLM(대규모 언어 모델)에 적합하지만, 일반적으로 AI에도 적합한 GPU에 초점을 맞추겠습니다. 구체적으로 살펴보면, RTX 5080 및 RTX 5090 가격입니다. 가격이 약간 하락했습니다.
가격 현실 검토 - RTX 5080 및 RTX 5090
3개월 전만 해도 RTX 5090을 가게에서 보는 것은 불가능했지만, 지금은 이미 판매되고 있으며, 가격은 MRSP보다 약간 높은 수준입니다.
가장 저렴한 호주에서의 RTX 5080 및 RTX 5090 가격을 비교해 보고 어떻게 되는지 살펴보겠습니다.
더 많은 RAM, 더 적은 전력 소비, 그러나 여전히 비싸다.
최고의 자동화 시스템으로 어떤 멋진 작업도 수행할 수 있습니다.
LLM을 위해 두 번째 GPU를 설치하는 것을 고려 중이십니까?
PCIe 랜의 수가 LLM 성능에 미치는 영향? 작업에 따라 다릅니다. 훈련 및 다중 GPU 추론의 경우 성능 저하가 상당합니다.
그리고 왜 내가 이 BSOD를 계속 보고 있는 건가...
이 문제로 인해 큰 충격을 받았습니다. 하지만 BSOD가 제게와 비슷한 경우라면, 자신의 PC를 조사하고 테스트해 보는 것이 좋습니다. 원인은 인텔 13세대 및 14세대 CPU의 성능 저하 문제입니다.
인텔 CPU의 효율성 코어 vs 성능 코어에서의 Ollama
제가 테스트하고 싶은 이론은, 인텔 CPU에서 모든 코어를 사용하면 LLM의 속도가 빨라질까?입니다.
새로운 gemma3 27비트 모델(gemma3:27b, ollama에서 17GB)이 제 GPU의 16GB VRAM에 맞지 않아, 일부는 CPU에서 실행되고 있다는 점이 제게 괴롭습니다.
AI는 많은 전력을 필요로 합니다...
현대 세계의 혼란 속에서 여기서 저는 다른 카드의 기술 사양을 비교를 AI 작업에 적합한 것으로 비교하고 있습니다.
(Deep Learning,
Object Detection
및 LLMs).
그러나 모두 매우 비싸네요.
ollama를 사용하여 병렬 요청 실행을 구성합니다.
Ollama 서버가 동일한 시간에 두 개의 요청을 받을 경우, 그 동작은 구성 설정과 사용 가능한 시스템 자원에 따라 달라집니다.
기존 프린터 드라이버와 비교해 훨씬 간단합니다.
ET-8500을 Windows에 설치하는 방법은 지침서에 잘 설명되어 있습니다.
ET-8500 Linux 드라이버 설치는 간단하지만 복잡한 부분도 있습니다.
GPU 대 CPU에서 LLM의 속도를 테스트해 보겠습니다.
여러 버전의 LLM(llama3, phi3, gemma, mistral)이 CPU와 GPU에서 예측 속도를 비교합니다.