
NVIDIA DGX Spark - 새로운 소형 AI 슈퍼컴퓨터
2025년 7월에 곧 제공될 예정입니다.
NVIDIA는 곧 NVIDIA DGX Spark를 출시할 예정입니다. 이는 Blackwell 아키텍처를 기반으로 한 소형 AI 슈퍼컴퓨터로, 128GB 이상의 통합 RAM과 1 PFLOPS의 AI 성능을 제공합니다. LLM을 실행하는 데 매우 적합한 장비입니다.
2025년 7월에 곧 제공될 예정입니다.
NVIDIA는 곧 NVIDIA DGX Spark를 출시할 예정입니다. 이는 Blackwell 아키텍처를 기반으로 한 소형 AI 슈퍼컴퓨터로, 128GB 이상의 통합 RAM과 1 PFLOPS의 AI 성능을 제공합니다. LLM을 실행하는 데 매우 적합한 장비입니다.
웹사이트에 사용할 웹 분석 시스템은 무엇인가요?
간단히 살펴보자면,
Matomo, Plausible, Google 및 기타 웹 분석 제공업체 및 시스템
자체 호스팅이 가능한 시스템들을 비교해 보자.
Ubuntu 24.04 표준 설치 순서에 대한 참고 사항
여기 제가 좋아하는 Ubuntu 24.04의 신규 설치에 대한 단계입니다.
여기서 제가 좋아하는 점은 NVidia 드라이버를 설치할 필요가 없으며, 자동으로 설치됩니다.
저는 개인용 지식 저장소로 Dokuwiki를 사용하고 있었습니다.
도쿠위키는 데이터베이스가 필요 없는 자체 호스팅 위키로, 쉽게 온프레미스에서 호스팅할 수 있습니다.
저는 도커화된 상태로, 제 개인의 페트/kubernetes 클러스터에서 실행하고 있었습니다.
AI에 적합한 GPU 가격 업데이트 - RTX 5080 및 RTX 5090
최상위 소비자용 GPU의 가격을 비교해 보겠습니다. 특히 LLM(대규모 언어 모델)에 적합하지만, 일반적으로 AI에도 적합한 GPU에 초점을 맞추겠습니다. 구체적으로 살펴보면, RTX 5080 및 RTX 5090 가격입니다. 가격이 약간 하락했습니다.
파이썬을 사용한 ETS/MLOPS에 적합한 프레임워크
Apache Airflow은 프로그래밍적으로 워크플로우를 작성, 예약 및 모니터링할 수 있는 오픈소스 플랫폼으로, 완전히 파이썬 코드로 작성되어 전통적인, 수동적, 또는 UI 기반 워크플로우 도구보다 유연하고 강력한 대안을 제공합니다.
RAG을 구현 중이시다면? 여기 Go 코드 예제가 있습니다 - 2...
표준 Ollama에는 직접적인 재정렬 API가 없기 때문에, 쿼리-문서 쌍의 임베딩을 생성하고 이를 점수화하여 Qwen3 재정렬기 사용으로 재정렬하기(GO)를 구현해야 합니다.
qwen3 8b, 14b 및 30b, devstral 24b, mistral small 24b
이 테스트에서는 Ollama에 호스팅된 다양한 LLM이 Hugo 페이지를 영어에서 독일어로 번역하는 방법을 비교하고 있습니다. https://www.glukhov.org/ko/post/2025/06/translation-quality-comparison-llms-on-ollama/ "comparison how different LLMs hosted on Ollama translate Hugo page from English to German"
.
테스트한 세 페이지는 서로 다른 주제를 다루고 있으며, 마크다운 형식으로 구성되어 있습니다. 헤더, 목록, 표, 링크 등이 포함되어 있습니다.
RAG을 구현 중이시다면, 여기 Golang에서 사용할 수 있는 코드 스니펫 몇 가지가 있습니다.
이 작은
Reranking Go 코드 예제는 Ollama를 호출하여 쿼리와 각 후보 문서에 대한 임베딩을 생성
그런 다음 코사인 유사도에 따라 내림차순으로 정렬합니다.
가격 현실 검토 - RTX 5080 및 RTX 5090
3개월 전만 해도 RTX 5090을 가게에서 보는 것은 불가능했지만, 지금은 이미 판매되고 있으며, 가격은 MRSP보다 약간 높은 수준입니다.
가장 저렴한 호주에서의 RTX 5080 및 RTX 5090 가격을 비교해 보고 어떻게 되는지 살펴보겠습니다.
웹 검색 엔진을 자체 호스팅하나요? 간단합니다!
YaCy는 분산형, 피어투피어(P2P) 검색 엔진로, 중앙 집중식 서버 없이 운영되며, 사용자가 지역 또는 글로벌 인덱스를 생성하고 분산된 피어를 쿼리하여 검색을 수행할 수 있도록 설계되었습니다.
더 많은 RAM, 더 적은 전력 소비, 그러나 여전히 비싸다.
최고의 자동화 시스템으로 어떤 멋진 작업도 수행할 수 있습니다.
Ollama에 새로운 훌륭한 LLM이 출시되었습니다.
Qwen3 Embedding 및 Reranker 모델은 Qwen 가족의 최신 출시물로, 고급 텍스트 임베딩, 검색 및 재정렬 작업에 특화되어 있습니다.
모든 페이지 관련 콘텐츠를 하나의 폴더에 보관하는 중...
조금 오랜 시간 동안 저는 페이지의 썸네일 이미지를 정적 디렉토리에 넣는 이 번거로움에 시달려 왔습니다. 이는 Mainroad, Rodster와 유사한 Hugo 테마를 위한 것입니다.
LLM을 위해 두 번째 GPU를 설치하는 것을 고려 중이십니까?
PCIe 랜의 수가 LLM 성능에 미치는 영향? 작업에 따라 다릅니다. 훈련 및 다중 GPU 추론의 경우 성능 저하가 상당합니다.