728x90 오픈소스7 llama3 무료로 쉽게 사용해보기 (feat. huggingface) 우리시간 지난 밤(2024년 4월 18~19일 밤) 메타에서는 라마3를 오픈소스를 공개했습니다!! GPT-3.5, Claude Sonnet 보다 평가가 좋고!! 아직 공개되지 않은 400b 모델은 GPT-4, Claude 3 Opus를 뛰어넘을 것으로 예상된다고합니다!! 이 모델을 무료로, 쉽게 테스트해보세요!! 사용방법 1. 허킹페이스 접속!! https://huggingface.co/chat/ HuggingChat Making the community's best AI chat models available to everyone. huggingface.co 2. 모델을 llama3로 변경하기!! 3. 프롬포트 입력하며 사용해보기!! > 결과물은 아래와 같았습니다!!^^ Here's a sample o.. 2024. 4. 19. 일론머스크의 AI, xAI의 오픈소스 LLM 사용해보기 (grok) 2024년 3월 17일!!! 일론머스크가 만든 AI 회사인 xAI에서 초거대 언어모델 grok을 오픈소스로 공개했습니다~!! ㅁ 그록의 간단한 소개 - 파라미터: 3,140억 개 (314B) - 아키텍처: 혼합 전문가 8개(MoE) - 전문가 활용: 토큰 당 2개의 전문가 사용 - 레이어: 64 Architecture: Mixture of 8 Experts (MoE) Experts Utilization: 2 experts used per token - 어텐션 헤드: 쿼리에 48개, 키/값에 8개 - 임베딩 크기: 6,144 - 토큰화: 131,072개 토큰 - 추가 기능: 회전 임베딩 (RoPE): 긴 시퀀스 처리를 위한 효율적인 방법 활성화 분할과 8비트 양자화: 하드웨어 가속을 통한 효율적인 학습과 .. 2024. 3. 19. LLM 모델 팔콘 알아보기 (Falcon-180b) 오늘은 HuggingFace에 TII가 소개한 초거대언어모델(LLM)인 Falcon 180B를 알아보고자합니다!! ㅁ 모델 소개 및 배경 Falcon 180B는 현재까지 공개된 오픈소스 모델중 최고라고할수 있습니다!! 약 1800억 개의 매개변수를 가진 가장 큰 개방된 언어 모델로 기존에 공개되었던 Falcon 40B의 확장된 버전으로 다중 쿼리 어텐션( multiquery attention ) 같은 혁신을 바탕으로 개발되었습니다 모델 제작시에는 딥러닝 클라우드 서비스인 Amazon SageMaker를 바탕으로 최대 4096개의 GPU를 동시에 사용, 3.5조 개의 토큰으로 훈련되었습니다. (Llama 2보다 2.5배 더 크고 4배 더 많은 컴퓨팅으로 훈련되었다는 것을 의미합니다.) ㅁ 성능비교 Falc.. 2023. 12. 2. 이전 1 2 다음 728x90