본문 바로가기
728x90

LLaMa5

llama3.2 체험하기 (feat. ollama) + 한국어는,, 언제쯤?! 2024년 9월 25일!! 메타에서는 llama3.2모델을 공개했습니다!! 이번 모델의 주요 특징 요약!!!! 1. 모바일 및 엣지 디바이스에 적합한 소형(1B, 3B) 및 중형 비전 모델(11B, 90B)로 구분!!2. 128K 토큰까지 지원하며 Qualcomm, MediaTek, ARM 하드웨어에서 사용 가능!!3. Claude 3와 같은 폐쇄형 모델보다 이미지 이해 작업에서 더 나은 성능이라고하고!!4. 여러 플랫폼 파트너 (including AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA, Oracle Cloud, Snowflake) 에서도 사용 가능하다고 했습니다!! 점점 이런 모델 덕분에 소형.. 2024. 10. 11.
vllm 설치하고 오픈소스 모델을 openai 모듈로 써보기!(feat. 알리바바의 qwen2.5 예시!!) 2024.06.23 - [데이터&AI/LLM] - 오픈 소스 LLM 서빙 소프트웨어 비교해보기!! (vLLM, Ollama, OpenLLM, LocalAI, llamafiles, GPT4All) 오픈 소스 LLM 서빙 소프트웨어 비교해보기!! (vLLM, Ollama, OpenLLM, LocalAI, llamafiles, GPT4All)안녕하세요!!제 포스팅에서는 그동안 오픈소스 llm을 크게 2가지 방법으로 시도해보았었습니다~~ 1. 직접 huggingface에서 모델 다운받아 실행하기2024.06.21 - [데이터&AI/LLM] - llama3 한국어 모델 On-premisdrfirst.tistory.com 지난 포스팅에서 여러 llm 서빙 모델에 대하여 알아보았는데요!!오늘은 이 중 하나인 vllm.. 2024. 10. 8.
Hugging Face Transformers: Pipeline vs. AutoModel, 뭘 사용할까!?? 저의 포스팅에서 지속적으로 huggingface의 오픈 소스모델을 바탕으로 테스트를 진행해보고 있습니다~~ 2024.06.21 - [데이터&AI/LLM] - llama3 한국어 모델 On-premise로 활용하기 (feat. Bllossom) llama3 한국어 모델 On-premise로 활용하기 (feat. Bllossom)airllm으로 llama3를 썻다가 메모리 부족 문제로 실행하지 못하는 문제를 겪었었습니다!!2024.05.07 - [데이터&AI/LLM] - 내 서버에서 llama3 70B 모델 사용하기 (feat. airllm) 내 서버에서 llama3 70B 모델 사용하drfirst.tistory.com2024.05.29 - [데이터&AI/LLM] - llama3 의 모델을 api로 호출하기.. 2024. 6. 22.
llamafile 포트 및 ip 정보 바꾸기!! LLAMAFILE!!! 오픈소스 LLM 모델들을 한개의 파일로 손쉽게 실행할 수 있어 참 좋습니다!! https://github.com/Mozilla-Ocho/llamafile/ GitHub - Mozilla-Ocho/llamafile: Distribute and run LLMs with a single file. Distribute and run LLMs with a single file. Contribute to Mozilla-Ocho/llamafile development by creating an account on GitHub. github.com ㅁ 간단한 사용방법 ## 파일을 받고 wget https://huggingface.co/jartine/llava-v1.5-7B-GGUF/resolve.. 2023. 12. 27.
728x90