Kbank 블로그

Kbank 블로그

  • 분류 전체보기 (65)
    • People (5)
    • Team (7)
    • Culture (8)
    • Tech (32)
    • Internship (10)
    • Product · Service (3)
  • 홈
  • 공식 홈페이지
  • 인재영입
RSS 피드
로그인
로그아웃 글쓰기 관리

Kbank 블로그

컨텐츠 검색

태그

케이뱅크 후기 케이뱅크 채용 케이뱅크 케이뱅크 온보딩 PEFT 케이뱅크 경력직 LoRa 케이뱅크 직원 후기 케이뱅크 입사 후기 케이뱅크동호회 QLoRA 케이뱅크 입사 Ai Recommender System 생성형AI 케이뱅크문화 llm 케이뱅크 신규 입사자 케이뱅크 신입 kbank

최근글

댓글

공지사항

아카이브

parameter efficient fine-tuning(1)

  • 거대 언어 모델 튜닝을 위한 미니멀리스트 접근법: 1부 - PEFT 알아보기

    들어가며 안녕하세요. 케이뱅크 데이터서비스팀에서 AI 업무를 하고 있는 김하영입니다.  이번 포스팅에서는 LLM(Large Language Model)이라 불리는 거대 언어 모델을 최소한의 비용과 인프라로 내 입맛에 맞게 조정하는 방법 중 하나인 PEFT(Parameter Efficient Fine-tuning)에 대해 다루어보려 합니다. 본 포스팅은 총 2부로 구성되어 있습니다. 1부에서는 LLM을 조정하는 여러가지 방법들을 소개합니다. 그리고 2부에서는 PEFT 방법 중에서도 가장 핵심이 되는 QLoRA에 대해 실제코드까지 자세히 살펴보겠습니다.    'Large' 언어 모델, 만능인가? 최근 메타에서 오픈소스 거대 언어 모델인 Llama 3를 공개했습니다. 8B 및 70B 라인업이며, 오는 7월에는..

    2024.04.29
이전
1
다음
공식 홈페이지 인재영입
© Kbank. All rights reserved.

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.