728x90
안녕하세여!!
지난 포스팅을 통해서 Huggingface를 통해 다운받은 Solar 모델을 구현시키는 방법을 알아보았습니다
2024.06.13 - [데이터&AI/LLM] - Solar 오픈소스 모델 활용해서 ON-premise LLM 만들기
Solar 오픈소스 모델 활용해서 ON-premise LLM 만들기
안녕하세요!지난 포스팅에서는 Upstage의 솔라 모델을 API로 활용하는 법을 배웠었는데요!2024.05.16 - [데이터&AI/LLM] - upstage의 llm 모델 Solar 사용하기!! (feat. 성킴 대표님 강의) upstage의 llm 모델 Solar
drfirst.tistory.com
이번포스팅에서는 해당 모델을 langchain 기반으로 가동시키는 작업을 진행해 보겠습니다!!
코드가 아주 간단한데요!!
from langchain.llms import HuggingFacePipeline
from transformers import pipeline
###
tokenizer = AutoTokenizer.from_pretrained("Upstage/SOLAR-10.7B-Instruct-v1.0")
model = AutoModelForCausalLM.from_pretrained(
"Upstage/SOLAR-10.7B-Instruct-v1.0",
device_map="auto",
torch_dtype=torch.float16,
)
pipe = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
max_new_tokens=1028,
)
llm = HuggingFacePipeline(pipeline=pipe)
위와 같이 다운 받은 모델을 기반으로
지난번과 동일하게 tokenizer / model을 만들어주고!!
"HuggingFacePipeline(pipeline=pipe) "
로 진행하면 끝!!!!!! 입니다!!
그다음은 기존 langchain 사용방식 그대로 사용하면 되지요~~
res = llm.invoke("tell me about the biggest country in the world")
print(res)
아주 멋지게 답변해줍니다~~
이제 경우에 따라 langchain으로 gpt / llama / Onpremise 모델들을 섞어서 사용 가능하겠지요~?^^
감사합니다
ㅁ 참고 : https://python.langchain.com/v0.2/docs/integrations/llms/huggingface_pipelines/
728x90
'데이터&AI > langchain' 카테고리의 다른 글
Qwen2 + langchain. On-premise모델을 langchain으로 사용하기! (0) | 2024.06.27 |
---|---|
[langchain + ollama] langchain으로 llama3 호출하기!!(feat. python, 멀티에이전트) (0) | 2024.06.02 |
[langchain공부] embedding된 Vector를 mongoDB에 저장하기 (1) | 2024.03.05 |
[langchain공부]gpt와 함께하는 few shot learning ! (feat. python) (0) | 2024.02.24 |
[langchain공부]유로 임베딩 모델 사용하기!? (feat. OpenAI ada) (1) | 2024.02.13 |
댓글