728x90 GPT34 Solar 오픈소스 모델 활용해서 ON-premise LLM 만들기 안녕하세요!지난 포스팅에서는 Upstage의 솔라 모델을 API로 활용하는 법을 배웠었는데요!2024.05.16 - [데이터&AI/LLM] - upstage의 llm 모델 Solar 사용하기!! (feat. 성킴 대표님 강의) upstage의 llm 모델 Solar 사용하기!! (feat. 성킴 대표님 강의)2024.05.16 - [데이터&AI/LLM] - [2024.5.16]SNU x Upstage LLM 세션① : 컴공과 교수님들의 강의!! [2024.5.16]SNU x Upstage LLM 세션① : 컴공과 교수님들의 강의!!https://kiise.or.kr/conference/conf/147/ 한국정보과학회 - 학drfirst.tistory.com 오늘은 Upstage에서 개발한 SOLAR-10.. 2024. 6. 13. 내 서버에서 llama3 실행하기!! (feat. ollama) 이전 포스팅에서 ollama를 활용하여 llama2-uncencored 모댈을 활용해보았고,airllm을 활용하여 llama3 모델을 활용해보았는데요!! 이번에는 ollama를 활용하여 llama3를 사용해보겠습니다!! 1. ollama 실행!! - 우선 기존에 설치괸 ollama를 background 에서 실행합니다!!~OLLAMA_MODELS={모델의 위치} ollama serve 2. llama3모델 다운!! ollama에서 지원하는 모델이 많아젔습니다! 그중 llama3가 있지요~~ollama run llama3run 을 해주었을때, 해당 디렉토리에 모델이 없다면 자동으로 다운로드를 진행합니다! > 참고 : https://github.com/ollama/ollama GitHub - ollama/.. 2024. 5. 31. 지금시간 맞추는 GPT 만들기 (feat. function calling) 2024.05.28 - [데이터&AI/LLM] - LLM 에이전트(llm agent) 란 무엇일까?- 코드로 알아보기 (feat. prompt engineering) LLM 에이전트(llm agent) 란 무엇일까?- 코드로 알아보기 (feat. prompt engineering)https://www.etnews.com/20240501000118 AI 에이전트 시대 열린다…단순 답변 넘어 '일상의 동반자'로인공지능(AI)이 챗봇을 넘어 기차표를 예매하고 레스토랑을 예약해주는 ‘AI 에이전트 시대’가 열린다.drfirst.tistory.com LLM Agent, function calling, tool 등 GPT를 활용한 다양한 기술들이 개발되고있는데요!!오늘은 이 function calling 기능을 .. 2024. 5. 30. LangChain 캐싱: GPT비용을 줄이고 속도는 높이기!!(feat python) GPT한태 똑같은 질문을 여러사람이 여러번 할수 있지 않을까요?? 그런데 그때마다 GPT API를 호출한다면??매번 GPT 답변받느라 속도도 느려지고, API를 계속 호출하느라 비용도 비싸겠찌요? 이를 대비해서!!LangChain의 caching 기능을 사용하면됩니다!!. 캐싱이란 무엇인가요?캐싱은 이전에 계산된 결과를 저장해두고, 동일한 입력이 들어왔을 때 다시 계산하지 않고 저장된 결과를 재사용하는 기술입니다. LangChain에서 캐싱은 LLM 호출 결과를 저장하고, 동일한 프롬프트에 대해서는 LLM을 다시 호출하지 않고 캐시된 결과를 반환합니다.LangChain 캐싱 사용 방법LangChain의 캐싱은 크게 2가지 방법으로 사용 가능합니다!! 방법1. 메모리캐시 사용from langchain... 2024. 5. 28. 이전 1 2 3 4 5 6 7 ··· 9 다음 728x90