tpot
sckit-learn
AUTO ML 활용해서 케글에 적용해보자
1 feature 선택
2 모델 선택
3hyper param 설정
EfficientNetB3의 base로 -> ImageNet을 활용
autokeras.com
https://ai.googleblog.com/2019/05/efficientnet-improving-accuracy-and.html
1 BO
-GP
-
2 genetic algo 사이킷런에서 활용해 볼 수 있음
hyper parameter넣을 게 많아 custom하기 쉬움
eliticist algorirhm - local optima 에 갇힐 위험이 있어서 잘 안씀
ranking/roulette과 달리 tournament선호도 높음(적합도
잘 이해 안감
--->hyper (crossover) 5개 중에서 3개를 아버지 2개를 어머니 // random (mutation)
테스트를 하고 결과를 볼 때 200 개 파라미터 뽑고 싶으면 테스트를 200번해야지
파라미터마다 10개씩 수가 있어
HPO문제-> 테스트하는 샘플이 적어
EfficientNetB3,B4등을 섞는 게 나을수도
직접 해봐서 결과 낸 것이기에 너도 그 과정 거치는게 더 빠를지도 몰라
hpo-keyword
Hyper Parameter (Tuning/Optimization/Search)
Genetic Algorithm (Evloutionary Algorithm/Search)
--- HPO에서 쓰는 GA알고리즘 다양
GA개선 알고리즘 정리
Bayesian Optimization (BO)
Grid Search, Random Search(Manual Search/Brute-force)
Simulated Annealing (SA)
Particle Swarm Optimization (PSO) double/continuous / binary
중력/각 설정
--> 구슬을 뿌렸을 때 얼마나 빨리 local minima에 빠지는가. l.r.선정의 문제
-->
Tree-structured Parzen Estimation (TPE)
2개도 알아서 알려줘야 함
Multi-armed(one-armed) Bandit
HPO 속도 개선
-Sequential Model-based Algorithm Configuration(SMAC)--반 버린다
-Hyperband
-
Successive Halving (Algorithm/Pruning)
EarlyStopping(EarlyStop Callback) -->1) patience 2 // 2) epoch 을 50정도는 해줘야 3)개선율 관찰
문제를 바꾼게 10개 개체를 한번에 테스트 하고 가망없는 것을 버린다.
Reinforcement Learning
Confusion Matrix
Greedy - Stochastic
'딥러닝 공부' 카테고리의 다른 글
Mendeley 논문 관련 정리 (0) | 2021.01.02 |
---|---|
SW AI 창업 경진대회 관련 논문 리서치 (0) | 2020.08.17 |
케글 상위 커널들이 ConvNet을 짜는 원리-transfer Learning (0) | 2020.07.29 |