ollama10 내 서버에서 llama3 실행하기!! (feat. ollama) 이전 포스팅에서 ollama를 활용하여 llama2-uncencored 모댈을 활용해보았고,airllm을 활용하여 llama3 모델을 활용해보았는데요!! 이번에는 ollama를 활용하여 llama3를 사용해보겠습니다!! 1. ollama 실행!! - 우선 기존에 설치괸 ollama를 background 에서 실행합니다!!~OLLAMA_MODELS={모델의 위치} ollama serve 2. llama3모델 다운!! ollama에서 지원하는 모델이 많아젔습니다! 그중 llama3가 있지요~~ollama run llama3run 을 해주었을때, 해당 디렉토리에 모델이 없다면 자동으로 다운로드를 진행합니다! > 참고 : https://github.com/ollama/ollama GitHub - ollama/.. 2024. 5. 31. ollama 의 모델 저장 디렉토리 바꾸기!! 다양한 LLM opensource 모델들을 손쉽게 사용할 수 있는 Ollama 가 오픈되어 공부중인데요~!@ https://ollama.ai/ Ollama Get up and running with large language models, locally. ollama.ai 3.8GB의 LLAMA 7B 모델부터 39GB가 넘는 LLAMA2 70B 모델까지 여러 공개된 오픈소스 모델들의 사용이 가능합니다! https://ollama.ai/library/llama2-uncensored/tags Tags · llama2-uncensored Uncensored Llama 2 model by George Sung and Jarrad Hope. ollama.ai 70B등 대규모 모델을 사용하다보면, 현 디렉토리 용량.. 2023. 12. 26. 이전 1 2 3 다음