Fantasizing with Dual GPs in Bayesian Optimization and Active Learning

Paul Chang*, Prakhar Verma, Ti John, Victor Picheny, Henry Moss, Arno Solin

*Tämän työn vastaava kirjoittaja

Tutkimustuotos: Artikkeli kirjassa/konferenssijulkaisussaKonferenssiesitysScientificvertaisarvioitu

Abstrakti

Gaussian processes (GPs) are the main surrogate functions used for sequential modelling such as Bayesian Optimization and Active Learning. Their drawbacks are poor scaling with data and the need to run an optimization loop when using a non-Gaussian likelihood. In this paper, we focus on `fantasizing' batch acquisition functions that need the ability to condition on new fantasized data computationally efficiently. By using a sparse Dual GP parameterization, we gain linear scaling with batch size as well as one-step updates for non-Gaussian likelihoods, thus extending sparse models to greedy batch fantasizing acquisition functions.
AlkuperäiskieliEnglanti
TilaJulkaistu - 2022
OKM-julkaisutyyppiEi oikeutettu
TapahtumaConference on Neural Information Processing Systems - New Orleans, Yhdysvallat
Kesto: 28 marrask. 20229 jouluk. 2022
Konferenssinumero: 36
https://nips.cc/

Conference

ConferenceConference on Neural Information Processing Systems
LyhennettäNeurIPS
Maa/AlueYhdysvallat
KaupunkiNew Orleans
Ajanjakso28/11/202209/12/2022
www-osoite

Sormenjälki

Sukella tutkimusaiheisiin 'Fantasizing with Dual GPs in Bayesian Optimization and Active Learning'. Ne muodostavat yhdessä ainutlaatuisen sormenjäljen.

Siteeraa tätä