Hugging Face AutoTrain
2 minute read
Hugging Face AutoTrain은 자연어 처리 (NLP) 작업, 컴퓨터 비전 (CV) 작업, 음성 작업 및 테이블 형식 작업을 위한 최첨단 모델을 트레이닝하는 노코드 툴입니다.
Weights & Biases는 Hugging Face AutoTrain에 직접 통합되어 experiment 추적 및 config 관리를 제공합니다. 실험을 위해 CLI 코맨드에서 단일 파라미터를 사용하는 것만큼 쉽습니다.

필수 조건 설치
autotrain-advanced
및 wandb
를 설치합니다.
pip install --upgrade autotrain-advanced wandb
!pip install --upgrade autotrain-advanced wandb
이러한 변경 사항을 보여주기 위해 이 페이지에서는 수학 데이터셋에서 LLM을 fine-tune하여 GSM8k Benchmarks에서 pass@1
로 SoTA 결과를 달성합니다.
데이터셋 준비
Hugging Face AutoTrain은 제대로 작동하기 위해 CSV 커스텀 데이터셋에 특정 형식이 필요합니다.
-
트레이닝 파일에는 트레이닝에 사용되는
text
열이 있어야 합니다. 최상의 결과를 얻으려면text
열의 데이터가### Human: Question?### Assistant: Answer.
형식을 준수해야 합니다.timdettmers/openassistant-guanaco
에서 훌륭한 예를 검토하십시오.그러나 MetaMathQA 데이터셋에는
query
,response
및type
열이 포함되어 있습니다. 먼저 이 데이터셋을 전처리합니다.type
열을 제거하고query
및response
열의 내용을### Human: Query?### Assistant: Response.
형식의 새text
열로 결합합니다. 트레이닝은 결과 데이터셋인rishiraj/guanaco-style-metamath
를 사용합니다.
autotrain
을 사용하여 트레이닝
커맨드 라인 또는 노트북에서 autotrain
advanced를 사용하여 트레이닝을 시작할 수 있습니다. --log
인수를 사용하거나 --log wandb
를 사용하여 결과를 W&B run에 기록합니다.
autotrain llm \
--train \
--model HuggingFaceH4/zephyr-7b-alpha \
--project-name zephyr-math \
--log wandb \
--data-path data/ \
--text-column text \
--lr 2e-5 \
--batch-size 4 \
--epochs 3 \
--block-size 1024 \
--warmup-ratio 0.03 \
--lora-r 16 \
--lora-alpha 32 \
--lora-dropout 0.05 \
--weight-decay 0.0 \
--gradient-accumulation 4 \
--logging_steps 10 \
--fp16 \
--use-peft \
--use-int4 \
--merge-adapter \
--push-to-hub \
--token <huggingface-token> \
--repo-id <huggingface-repository-address>
# 하이퍼파라미터 설정
learning_rate = 2e-5
num_epochs = 3
batch_size = 4
block_size = 1024
trainer = "sft"
warmup_ratio = 0.03
weight_decay = 0.
gradient_accumulation = 4
lora_r = 16
lora_alpha = 32
lora_dropout = 0.05
logging_steps = 10
# 트레이닝 실행
!autotrain llm \
--train \
--model "HuggingFaceH4/zephyr-7b-alpha" \
--project-name "zephyr-math" \
--log "wandb" \
--data-path data/ \
--text-column text \
--lr str(learning_rate) \
--batch-size str(batch_size) \
--epochs str(num_epochs) \
--block-size str(block_size) \
--warmup-ratio str(warmup_ratio) \
--lora-r str(lora_r) \
--lora-alpha str(lora_alpha) \
--lora-dropout str(lora_dropout) \
--weight-decay str(weight_decay) \
--gradient-accumulation str(gradient_accumulation) \
--logging-steps str(logging_steps) \
--fp16 \
--use-peft \
--use-int4 \
--merge-adapter \
--push-to-hub \
--token str(hf_token) \
--repo-id "rishiraj/zephyr-math"

추가 자료
- AutoTrain Advanced now supports Experiment Tracking by Rishiraj Acharya.
- Hugging Face AutoTrain Docs
Feedback
Was this page helpful?
Glad to hear it! Please tell us how we can improve.
Sorry to hear that. Please tell us how we can improve.