본문 바로가기
728x90

meta6

llama3.2 체험하기 (feat. ollama) + 한국어는,, 언제쯤?! 2024년 9월 25일!! 메타에서는 llama3.2모델을 공개했습니다!! 이번 모델의 주요 특징 요약!!!! 1. 모바일 및 엣지 디바이스에 적합한 소형(1B, 3B) 및 중형 비전 모델(11B, 90B)로 구분!!2. 128K 토큰까지 지원하며 Qualcomm, MediaTek, ARM 하드웨어에서 사용 가능!!3. Claude 3와 같은 폐쇄형 모델보다 이미지 이해 작업에서 더 나은 성능이라고하고!!4. 여러 플랫폼 파트너 (including AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA, Oracle Cloud, Snowflake) 에서도 사용 가능하다고 했습니다!! 점점 이런 모델 덕분에 소형.. 2024. 10. 11.
[langchain + ollama] langchain으로 llama3 호출하기!!(feat. python, 멀티에이전트) 2024.05.29 - [데이터&AI/LLM] - llama3 의 모델을 api로 호출하기!! (feat. ollama, python, embedding) llama3 의 모델을 api로 호출하기!! (feat. ollama, python, embedding)지난 포스팅에서는!! ollama로  올라간 llama를shell 환경에서 진행해보았는데요!! 이번에는 API를 호출하는 방법으로 해당 모델을 사용해보겠습니다!! 1. ollama모델 구동 - 기존과 동일하게, 서버에drfirst.tistory.com 지난 포스팅에서는 ollama의 llama3를python의 api request를 활용하여 사용했었습니다!!이번에는 python의 langchain 패키지를 활용하여 llama3를 활용해봅시가!! 1... 2024. 6. 2.
llama3 의 모델을 api로 호출하기!! (feat. ollama, python, embedding) 지난 포스팅에서는!! ollama로  올라간 llama를shell 환경에서 진행해보았는데요!!2024.05.29 - [데이터&AI/LLM] - 내 서버에서 llama3 실행하기!! (feat. ollama) 내 서버에서 llama3 실행하기!! (feat. ollama)이전 포스팅에서 ollama를 활용하여 llama2-uncencored 모댈을 활용해보았고,airllm을 활용하여 llama3 모델을 활용해보았는데요!! 이번에는 ollama를 활용하여 llama3를 사용해보겠습니다!! 1. ollama 실행!! -drfirst.tistory.com  이번에는 API를 호출하는 방법으로 해당 모델을 사용해보겠습니다!! 1. ollama모델 구동 - 기존과 동일하게, 서버에서 ollama를 우선 구동시킵니다.. 2024. 6. 1.
내 서버에서 llama3 실행하기!! (feat. ollama) 이전 포스팅에서 ollama를 활용하여 llama2-uncencored 모댈을 활용해보았고,airllm을 활용하여 llama3 모델을 활용해보았는데요!! 이번에는 ollama를 활용하여 llama3를 사용해보겠습니다!! 1. ollama 실행!! - 우선 기존에 설치괸 ollama를 background 에서 실행합니다!!~OLLAMA_MODELS={모델의 위치} ollama serve 2. llama3모델 다운!! ollama에서 지원하는 모델이 많아젔습니다! 그중 llama3가 있지요~~ollama run llama3run 을 해주었을때, 해당 디렉토리에 모델이 없다면 자동으로 다운로드를 진행합니다!  > 참고 : https://github.com/ollama/ollama GitHub - ollama/.. 2024. 5. 31.
728x90