Learn more about sweeps
스윕에 유용한 소스 모음입니다.
less than a minute
학술 논문
Li, Lisha, 외. “Hyperband: A novel bandit-based approach to hyperparameter optimization.” The Journal of Machine Learning Research 18.1 (2017): 6765-6816.
Sweep Experiments
다음 W&B Reports는 W&B Sweeps를 사용한 하이퍼파라미터 최적화 실험의 프로젝트 예제를 보여줍니다.
- Drought Watch Benchmark Progress
- 설명: Drought Watch 베이스라인을 개발하고 제출을 살펴봅니다.
- Tuning Safety Penalties in Reinforcement Learning
- 설명: 패턴 생성, 패턴 제거 및 탐색이라는 세 가지 다른 작업에서 다양한 부작용 페널티로 훈련된 에이전트를 살펴봅니다.
- Meaning and Noise in Hyperparameter Search with W&B Stacey Svetlichnaya
- 설명: 신호와 파레이돌리아(가상 패턴)를 어떻게 구별할까요? 이 기사는 W&B로 가능한 것을 보여주고 추가 탐구를 장려하는 것을 목표로 합니다.
- Who is Them? Text Disambiguation with Transformers
- 설명: 자연어 이해를 위한 모델을 탐색하기 위해 Hugging Face 사용
- DeepChem: Molecular Solubility
- 설명: 랜덤 포레스트 및 딥넷을 사용하여 분자 구조로부터 화학적 속성을 예측합니다.
- Intro to MLOps: Hyperparameter Tuning
- 설명: 하이퍼파라미터 최적화가 중요한 이유를 알아보고 기계 학습 모델을 위한 하이퍼파라미터 튜닝을 자동화하는 세 가지 알고리즘을 살펴봅니다.
selfm-anaged
다음 방법 가이드는 W&B로 실제 문제를 해결하는 방법을 보여줍니다.
- Sweeps with XGBoost
- 설명: XGBoost를 사용하여 하이퍼파라미터 튜닝을 위해 W&B Sweeps를 사용하는 방법.
Sweep GitHub repository
W&B는 오픈 소스를 옹호하며 커뮤니티의 기여를 환영합니다. GitHub 저장소는 https://github.com/wandb/sweeps에서 찾을 수 있습니다. W&B 오픈 소스 레포지토리에 기여하는 방법에 대한 자세한 내용은 W&B GitHub Contribution guidelines를 참조하십시오.
[i18n] feedback_title
[i18n] feedback_question
Glad to hear it! Please tell us how we can improve.
Sorry to hear that. Please tell us how we can improve.