본문 바로가기
728x90

llm51

llama3 무료로 쉽게 사용해보기 (feat. huggingface) 우리시간 지난 밤(2024년 4월 18~19일 밤) 메타에서는 라마3를 오픈소스를 공개했습니다!! GPT-3.5, Claude Sonnet 보다 평가가 좋고!! 아직 공개되지 않은 400b 모델은 GPT-4, Claude 3 Opus를 뛰어넘을 것으로 예상된다고합니다!! 이 모델을 무료로, 쉽게 테스트해보세요!! 사용방법 1. 허킹페이스 접속!! https://huggingface.co/chat/ HuggingChat Making the community's best AI chat models available to everyone. huggingface.co 2. 모델을 llama3로 변경하기!! 3. 프롬포트 입력하며 사용해보기!! > 결과물은 아래와 같았습니다!!^^ Here's a sample o.. 2024. 4. 19.
[ LLM 공부] Mixture of Experts (MoE) 쉽게 이해하기! 이번 포스팅은 유튜브 영상을 보고 Mixture of Experts LLM (MoE) 에 대하여 학습한 영상을 정리하고자합니다~~ Mixture of Experts (MoE) 의 정의 MoE 모델은? - 언어 모델을 더 작고 특화된 하위 모델, 즉 전문가 모델들로 분해할 수 있다는 점에 기반을 두고 있다. - 이 전문가 모델들은 각자 특정 부분을 처리하는 데 "특화되어 있어" 전체적인 계산 효율과 자원 할당을 개선 MoE 의 역사는? > 2017년의 'Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer' (by google Brain)에서 시작 논문분석!! - 1 - 원문 URL : https://arxiv.org.. 2024. 4. 12.
AI모델(GPT4)로 그림 및 사진 읽기 with python 오늘은 GPT로 그림및 사진읽기!! 에 대하여 알아보겠습니다!! 사용할 모델은 openai의 GPT 모델인 gpt-4-vision-preview 입니다!! 1. URL 기반으로 그림 읽기!!! target url을 설정하고 해당 이미지를 읽어와서 해석하게합니다!! 아래 URL의 이미지를 읽어보게하겠습니다 https://mblogthumb-phinf.pstatic.net/20110105_214/dapapr_1294200472447D2cs9_JPEG/noname08.jpg?type=w420 import openai openai.api_key = '{내 openai key}' my_image_url = 'https://mblogthumb-phinf.pstatic.net/20110105_214/dapapr_12.. 2024. 3. 26.
일론머스크의 AI, xAI의 오픈소스 LLM 사용해보기 (grok) 2024년 3월 17일!!! 일론머스크가 만든 AI 회사인 xAI에서 초거대 언어모델 grok을 오픈소스로 공개했습니다~!! ㅁ 그록의 간단한 소개 - 파라미터: 3,140억 개 (314B) - 아키텍처: 혼합 전문가 8개(MoE) - 전문가 활용: 토큰 당 2개의 전문가 사용 - 레이어: 64 Architecture: Mixture of 8 Experts (MoE) Experts Utilization: 2 experts used per token - 어텐션 헤드: 쿼리에 48개, 키/값에 8개 - 임베딩 크기: 6,144 - 토큰화: 131,072개 토큰 - 추가 기능: 회전 임베딩 (RoPE): 긴 시퀀스 처리를 위한 효율적인 방법 활성화 분할과 8비트 양자화: 하드웨어 가속을 통한 효율적인 학습과 .. 2024. 3. 19.
728x90