올라마 정리

올라마 명령들 ollama run [모델명] 모델이 설치되지 않았으면, 모델을 설치하고 실행(대화 가능 상태)합니다.   예) ollama run qwen3-vl:2b ollama pull [모델명] 실행하지 않고 모델을 설치(다운로드)만 합니다. ollama rm [모델명] 모델을 삭제합니다.  ollama show [모델명] 모델의 세부 정보를 제공합니다.  ollama list  설치된(다운로드 된) 모델들  ollama ps 실행되고 있는 모델들 ollama serve 올라마...

윈도우 환경에서 Ollama 모델이 자동으로 종료되지 않도록

윈도우 환경에서 Ollama 모델이 자동으로 종료되지 않도록 설정하는 구체적인 단계입니다.   1. PowerShell을 이용한 영구 설정 (가장 빠름) 관리자 권한으로 PowerShell을 실행한 후 아래 명령어를 입력하여 시스템 환경 변수를 추가하십시오. [System.Environment]::SetEnvironmentVariable('OLLAMA_KEEP_ALIVE', '-1', 'User') 명령어 실행 후: 작업 표시줄 오른쪽 하단 시스템 트레이에서 Ollama 아이콘을 ...

GLM-4.7 성능 완전 분석: 코딩 최강 오픈소스 모델 – My AI Smarteasy 사용자 정의 코파일럿 AI 에이전트 – 일타 저스틴

안녕하세요, 여러분! 일타 강사 저스틴입니다! 😊 GLM-4.7이 코딩과 에이전트 작업에서 대박 터뜨렸어요. 오픈소스인데 GPT급 성능? 가격도 착하고요. 개발자 여러분, 이 모델 써보세요! 🎯 GLM-4.7 핵심 스펙 MoE 구조로 총 3580억 파라미터지만, 실제 쓰는 건 320억! 비용 절반으로 초대형 성능 내요. 컨텍스트: 200K 입력 + 128K 출력 추론 모드: Interleaved Thinking(생각하며...

GLM-4-7B-Flash 모델 Context 설정 가이드 – My AI Smarteasy 사용자 정의 코파일럿 AI 에이전트 – 일타 저스틴

GLM-4-7B-Flash 모델 Context 설정 가이드 1. GLM-4-7B-Flash 기본 사양 [crayon-6985c0a69918a020414576/] 2. Windows 콘솔 실행 명령어 [crayon-6985c0a69918d245095116/] 3. Context 길이별 권장 설정 Context 크기 VRAM/RAM 요구 사용 사례 명령어 8K (8192) 8GB 빠른 응답, 일반 대화 --num_ctx 8192 32K 12GB 긴 대화, 문서 분석 --num_ct...