올라마2 llama3 의 모델을 api로 호출하기!! (feat. ollama, python, embedding) 지난 포스팅에서는!! ollama로 올라간 llama를shell 환경에서 진행해보았는데요!!2024.05.29 - [데이터&AI/LLM] - 내 서버에서 llama3 실행하기!! (feat. ollama) 내 서버에서 llama3 실행하기!! (feat. ollama)이전 포스팅에서 ollama를 활용하여 llama2-uncencored 모댈을 활용해보았고,airllm을 활용하여 llama3 모델을 활용해보았는데요!! 이번에는 ollama를 활용하여 llama3를 사용해보겠습니다!! 1. ollama 실행!! -drfirst.tistory.com 이번에는 API를 호출하는 방법으로 해당 모델을 사용해보겠습니다!! 1. ollama모델 구동 - 기존과 동일하게, 서버에서 ollama를 우선 구동시킵니다.. 2024. 6. 1. 내 서버에서 llama3 실행하기!! (feat. ollama) 이전 포스팅에서 ollama를 활용하여 llama2-uncencored 모댈을 활용해보았고,airllm을 활용하여 llama3 모델을 활용해보았는데요!! 이번에는 ollama를 활용하여 llama3를 사용해보겠습니다!! 1. ollama 실행!! - 우선 기존에 설치괸 ollama를 background 에서 실행합니다!!~OLLAMA_MODELS={모델의 위치} ollama serve 2. llama3모델 다운!! ollama에서 지원하는 모델이 많아젔습니다! 그중 llama3가 있지요~~ollama run llama3run 을 해주었을때, 해당 디렉토리에 모델이 없다면 자동으로 다운로드를 진행합니다! > 참고 : https://github.com/ollama/ollama GitHub - ollama/.. 2024. 5. 31. 이전 1 다음