본문 바로가기

전체 글465

llama3 무료로 쉽게 사용해보기 (feat. huggingface) 우리시간 지난 밤(2024년 4월 18~19일 밤) 메타에서는 라마3를 오픈소스를 공개했습니다!! GPT-3.5, Claude Sonnet 보다 평가가 좋고!! 아직 공개되지 않은 400b 모델은 GPT-4, Claude 3 Opus를 뛰어넘을 것으로 예상된다고합니다!! 이 모델을 무료로, 쉽게 테스트해보세요!! 사용방법 1. 허킹페이스 접속!! https://huggingface.co/chat/ HuggingChat Making the community's best AI chat models available to everyone. huggingface.co 2. 모델을 llama3로 변경하기!! 3. 프롬포트 입력하며 사용해보기!! > 결과물은 아래와 같았습니다!!^^ Here's a sample o.. 2024. 4. 19.
[ LLM 공부] Mixture of Experts (MoE) 쉽게 이해하기! 이번 포스팅은 유튜브 영상을 보고 Mixture of Experts LLM (MoE) 에 대하여 학습한 영상을 정리하고자합니다~~ Mixture of Experts (MoE) 의 정의 MoE 모델은? - 언어 모델을 더 작고 특화된 하위 모델, 즉 전문가 모델들로 분해할 수 있다는 점에 기반을 두고 있다. - 이 전문가 모델들은 각자 특정 부분을 처리하는 데 "특화되어 있어" 전체적인 계산 효율과 자원 할당을 개선 MoE 의 역사는? > 2017년의 'Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer' (by google Brain)에서 시작 논문분석!! - 1 - 원문 URL : https://arxiv.org.. 2024. 4. 12.
Sweeper bot(스위퍼봇) 에 대하여 알아보자 (feat. 거래소 지갑관리, 지갑해킹) 안녕하세요~!! 오늘은 sweeper bot 스위퍼봇에 대하여 알아보겠습니다!! 1. 가상자산 거래소의 지갑관리 알아보기 앞서!!! 우리가 익숙한 업비트 지갑체계에 대하여 생각해봅시다! 타 거래소 혹은 메타마스크 등에서 업비트로 입금하려할때 이렇게 입금주소를 알려주는데요, 이 주소로 입금을 하면 어떻게될까요? 업비트에서는 사용자 각각의 모든 지갑을 만들어두고,, 모든 자산을 분산하여 관리할까요??? NONONO!!! 업비트 고객수는 약 120만명!! 이 120만명의 지갑에 각각의 자산을 따로 관리하기는 너무 복잡하겠지요~! 그래서!! 업비트는 각각의 지갑에 받은 가상자산을 업비트의 종합지갑에 모아두게됩니다 정말일까요? 아래 block scan 사이트를 봅시다!! https://polygonscan.com.. 2024. 3. 30.
[web3] ImportError: cannot import name 'getargspec' from 'inspect' 에러해결!! 파이썬에서 여러 패키지를 설치하다보니,, ImportError: cannot import name 'getargspec' from 'inspect' 라는 에러가 발생하기시작했습니다.. 해결법이 무엇일까 고민하다 방법을 찾아서 공유합니다!! 1. ~/site-packages/parsimonious/expressions.py 파일 찾기!! ~는 사용자의 python이 설치된 경로입니다!! 2. import 부분의 코드 수정 #Before from inspect import getargspec # After from inspect import getfullargspec 3.완료!!!^^ ㅁ참고 : https://github.com/seed-labs/seed-emulator/issues/163 2024. 3. 29.
AI모델(GPT4)로 그림 및 사진 읽기 with python 오늘은 GPT로 그림및 사진읽기!! 에 대하여 알아보겠습니다!! 사용할 모델은 openai의 GPT 모델인 gpt-4-vision-preview 입니다!! 1. URL 기반으로 그림 읽기!!! target url을 설정하고 해당 이미지를 읽어와서 해석하게합니다!! 아래 URL의 이미지를 읽어보게하겠습니다 https://mblogthumb-phinf.pstatic.net/20110105_214/dapapr_1294200472447D2cs9_JPEG/noname08.jpg?type=w420 import openai openai.api_key = '{내 openai key}' my_image_url = 'https://mblogthumb-phinf.pstatic.net/20110105_214/dapapr_12.. 2024. 3. 26.
일론머스크의 AI, xAI의 오픈소스 LLM 사용해보기 (grok) 2024년 3월 17일!!! 일론머스크가 만든 AI 회사인 xAI에서 초거대 언어모델 grok을 오픈소스로 공개했습니다~!! ㅁ 그록의 간단한 소개 - 파라미터: 3,140억 개 (314B) - 아키텍처: 혼합 전문가 8개(MoE) - 전문가 활용: 토큰 당 2개의 전문가 사용 - 레이어: 64 Architecture: Mixture of 8 Experts (MoE) Experts Utilization: 2 experts used per token - 어텐션 헤드: 쿼리에 48개, 키/값에 8개 - 임베딩 크기: 6,144 - 토큰화: 131,072개 토큰 - 추가 기능: 회전 임베딩 (RoPE): 긴 시퀀스 처리를 위한 효율적인 방법 활성화 분할과 8비트 양자화: 하드웨어 가속을 통한 효율적인 학습과 .. 2024. 3. 19.