본문 바로가기
728x90

데이터&AI/LLM75

[프롬포트엔지니어링]wikipedia 검색해서 gpt로 글쓰기!! (feat. wikipediaapi, 사육신) GPT의 글쓰기 능력이 뛰어난것은 누구나 알고있지요!하지만, 어떻게 글을 생성해야할지. 그 재료는 우리가 잘 입력해야합니다!!  위와 같이 사육신에 대하여 물어보면 이상한 대답을합니다.그래서 위키피디아으 데이터를 가지고 사육신을 소개하는 글을 써보고자합니다  1. Wikipedia 검색을 통한 정보 수집Wikipedia API 사용하기Wikipedia는 다양한 주제에 대한 정보를 쉽게 얻을 수 있는 훌륭한 출처입니다.Wikipedia API를 사용하면 원하는 주제에 대한 정보를 수집 할 수 있습니다.Python을 이용한 간단한 예제는 다음과 같습니다: import wikipediaapi# Wikipedia API 객체 생성user_agent = 'Mozilla/5.0 (Windows NT 10.0; Wi.. 2024. 7. 14.
llm 모델에서 GGUF가 무엇인지 알아보자!! (feat. bllossom 모델을 gguf로 바꿔보기!) GGUF란 ?? > 쉽게 : llm 모델계의 docker !!> 정식 설명  : GGUF(Georgi Gerganov Unified Format)는 딥러닝 모델을 효율적으로 저장하고 배포하기 위한 새로운 파일 형식 made by  Georgi Gerganov> 필요한 이유는?  기존의 모델 저장 방식들은 특정 프레임워크나 라이브러리에 종속되어 호환성이 떨어지는 문제가 있음,                              GGUF는 이러한 문제를 해결하고자 탄생!!!> 파일구조 GGUF의 장점은!?1. 뛰어난 호환성: GGUF는 특정 프레임워크나 라이브러리에 종속않음!! (도커같죠?ㅎㅎ)                             이에,. PyTorch, TensorFlow 등 여러 프레임워크.. 2024. 6. 29.
RMSNorm과 Layer Normalization 비교하기 오늘의 주제 요약!! LN은 합창단의 각 파트가 아름다운 화음을 만들도록 돕는 합창 지휘자라면, RMSNorm은 오케스트라 전체의 연주를 조율하여 감동적인 교향곡을 완성하는 오케스트라 지휘자와 같다!! 1. Layer Normalization - 신경망의 각 층에서 입력 데이터의 정규화를 수행하는 방법 -  합창단의 각 파트별 음량을 조절하는 것과 같음!! 소프라노, 알토, 테너, 베이스 각 파트의 음량이 너무 크거나 작으면 전체적인 화음이 깨지게 되기에 LN은 각 파트의 음량을 적절히 조절하여 전체적인 화음을 아름답게 만드는 역할을 함 입력 데이터:입력 데이터 𝑥=[𝑥1,𝑥2,...,𝑥𝑑] 의 𝑑차원 벡터. 평균 계산:  각 샘플의 평균을 계산3. 분산 계산:샘플의 분산을 계산4. 정규화: .. 2024. 6. 28.
오픈 소스 LLM 서빙 소프트웨어 비교해보기!! (vLLM, Ollama, OpenLLM, LocalAI, llamafiles, GPT4All) 안녕하세요!!제 포스팅에서는 그동안 오픈소스 llm을 크게 2가지 방법으로 시도해보았었습니다~~ 1. 직접 huggingface에서 모델 다운받아 실행하기2024.06.21 - [데이터&AI/LLM] - llama3 한국어 모델 On-premise로 활용하기 (feat. Bllossom) llama3 한국어 모델 On-premise로 활용하기 (feat. Bllossom)airllm으로 llama3를 썻다가 메모리 부족 문제로 실행하지 못하는 문제를 겪었었습니다!!2024.05.07 - [데이터&AI/LLM] - 내 서버에서 llama3 70B 모델 사용하기 (feat. airllm) 내 서버에서 llama3 70B 모델 사용하drfirst.tistory.com 2. llm 서빙모델 (ollama, ll.. 2024. 6. 25.
728x90