c0d3n4m 发表于 2022-1-4 17:25

神经网络这块儿并不太可行

XGundam05 发表于 2022-1-4 17:27

另外要是可以的话,希望能加入对那几篇贝叶斯调参paper的理论解读

unityloverz 发表于 2022-1-4 17:35

感觉以后会有超超超参数要调

fwalker 发表于 2022-1-4 17:42

希望作者能写一个详细(全过程)的example,估计能降低很多初学者的使用门槛

Zephus 发表于 2022-1-4 17:49

就叫做Bayesian optimization,其中acquisition function可以有很多种。

acecase 发表于 2022-1-4 17:57

可以参考AlphaGo Zero论文,也是用基于Gaussian process的贝叶斯优化调参。

acecase 发表于 2022-1-4 18:02

是的。

stonstad 发表于 2022-1-4 18:05

考虑继续完善advisor使用文档,欢迎参与开源项目。

kyuskoj 发表于 2022-1-4 18:08

目前自己还是比较喜欢使用bayesOptimization,会尝试advisor的。

xiaozongpeng 发表于 2022-1-4 18:10

期待更多论文
页: 1 [2] 3
查看完整版本: 贝叶斯优化: 一种更好的超参数调优方式