Kubernetes 참고 자료
자주 사용되는 k8s 명령어와 파라미터
이것은 제 k8s cheat sheet입니다.
이 문서는 컨테이너를 설치하고 실행하는 것에서부터 정리까지, Kubernetes의 가장 중요한 명령어와 개념을 다룹니다.
자주 사용되는 k8s 명령어와 파라미터
이것은 제 k8s cheat sheet입니다.
이 문서는 컨테이너를 설치하고 실행하는 것에서부터 정리까지, Kubernetes의 가장 중요한 명령어와 개념을 다룹니다.
자주 사용되는 도커 명령어 매개변수
다음은 Docker cheat sheet입니다.
이 문서는 설치부터 컨테이너 실행 및 정리까지 중요한 명령어와 개념을 다룹니다:
놀랍도록 새로운 AI 모델로 텍스트에서 이미지 생성
최근 Black Forest Labs는 텍스트에서 이미지로 생성하는 AI 모델을 출시했습니다. 이 모델들은 매우 높은 출력 품질을 자랑한다고 알려져 있습니다. 시작해 보세요
자체 호스팅 AI 검색 엔진 두 가지 비교
맛있는 음식은 눈에도 즐거움을 줍니다.
하지만 이번 포스팅에서는 두 가지 AI 기반의 검색 시스템인 Farfalle 및 Perplexica를 비교해 보겠습니다.
로컬에서 코파일럿 스타일 서비스를 실행하나요? 간단합니다!
정말 흥미롭습니다! 이제 Copilot이나 perplexity.ai에 모든 세상에 당신이 원하는 것을 말하는 대신, 자신의 PC 또는 랩탑에 유사한 서비스를 호스팅할 수 있습니다!
논리적 오류 탐지 테스트
최근 몇몇 새로운 LLM이 출시되면서 흥미로운 시대가 되었습니다.
이제 그들의 성능을 논리적 오류를 감지하는 데 어떻게 작동하는지 테스트해 보겠습니다.
선택할 수 있는 항목은 많지 않지만 여전히...
LLM을 처음 실험할 때 그들의 UI는 활발한 개발 중이었고, 지금은 그 중 일부가 정말 잘 되어 있습니다.
노트북과 브라우저 간 북마크를 동기화하려고 하시나요?
다양한 도구를 사용해보았고, 그 중에서도 floccus를 가장 좋아하게 되었습니다.
레이블링 및 훈련에는 일정한 접착이 필요하다.
언제 제가 object detector AI 훈련 했을 때, LabelImg는 매우 유용한 도구였지만, Label Studio에서 COCO 형식으로 내보내는 것이 MMDetection 프레임워크에 의해 수용되지 않았습니다.
8개의 llama3 (Meta+) 및 5개의 phi3 (Microsoft) LLM 버전
다양한 파라미터 수와 양자화 방식을 사용한 모델들이 어떻게 동작하는지 테스트해보았습니다.
Ollama LLM 모델 파일은 많은 저장 공간을 차지합니다.
ollama 설치 후에는 즉시 ollama를 재구성하여 새 위치에 저장하는 것이 좋습니다.
이렇게 하면 새 모델을 끌어다 놓을 때 이전 위치에 다운로드되지 않습니다.
모든那些 광고를 보는 건 정말 짜증나요
구글 크롬, 파이어폭스, 사파리 등에서 브라우저 광고 차단 플러그인 또는 애드온을 설치할 수 있지만, 각 기기에서 따로 설정해야 합니다. 네트워크 전체에 걸쳐 광고를 차단하는 방법은 제일 좋아하는 해결책입니다.
다양한 LLM의 논리적 오류 탐지 품질을 테스트해 보겠습니다.
여기에서 저는 여러 LLM 버전을 비교하고 있습니다: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo(Mistral AI), Qwen(Alibaba).
이 어려운 시기에 어떤 일이든 일어날 수 있습니다.
데이터베이스, 파일 저장소, 기타 Gitea 관련 파일 등을 백업해야 합니다. 바로 시작합니다.
k8s에서 컨테이너 레지스트리 사용을 위해서는 SSL을 사용해야 합니다.
우리는 안전하고 편리한 컨테이너 레지스트리 호스팅을 원합니다. 이 레지스트리에 도커 이미지를 푸시하고, 우리의 쿠버네티스 클러스터가 이 레지스트리에서 이미지를 풀어내도록 하려고 합니다. 그래서 우리는 SSL을 사용한 Gitea를 사용하는 아이디어가 떠올랐습니다.
좋은 오픈소스 Git 서버를 선택하려고 노력 중입니다.
프로젝트를 오픈 클라우드 Git 제공업체에서 이전하고, 로컬에 내부 Git 서버를 자체 호스팅하는 것을 고려하고 계신가요?