Verwandte Artikel zu Regret Analysis of Stochastic and Nonstochastic Multi-Armed...

Regret Analysis of Stochastic and Nonstochastic Multi-Armed Bandit Problems: 15 (Foundations and Trends® in Machine Learning) - Softcover

 
9781601986269: Regret Analysis of Stochastic and Nonstochastic Multi-Armed Bandit Problems: 15 (Foundations and Trends® in Machine Learning)

Inhaltsangabe

A multi-armed bandit problem - or, simply, a bandit problem - is a sequential allocation problem defined by a set of actions. At each time step, a unit resource is allocated to an action and some observable payoff is obtained. The goal is to maximize the total payoff obtained in a sequence of allocations. The name bandit refers to the colloquial term for a slot machine (a "one-armed bandit" in American slang). In a casino, a sequential allocation problem is obtained when the player is facing many slot machines at once (a "multi-armed bandit"), and must repeatedly choose where to insert the next coin. Multi-armed bandit problems are the most basic examples of sequential decision problems with an exploration-exploitation trade-off. This is the balance between staying with the option that gave highest payoffs in the past and exploring new options that might give higher payoffs in the future. Although the study of bandit problems dates back to the 1930s, exploration-exploitation trade-offs arise in several modern applications, such as ad placement, website optimization, and packet routing. Mathematically, a multi-armed bandit is defined by the payoff process associated with each option. In this book, the focus is on two extreme cases in which the analysis of regret is particularly simple and elegant: independent and identically distributed payoffs and adversarial payoffs. Besides the basic setting of finitely many actions, it also analyzes some of the most important variants and extensions, such as the contextual bandit model. This monograph is an ideal reference for students and researchers with an interest in bandit problems.

Die Inhaltsangabe kann sich auf eine andere Ausgabe dieses Titels beziehen.

Reseña del editor

A multi-armed bandit problem - or, simply, a bandit problem - is a sequential allocation problem defined by a set of actions. At each time step, a unit resource is allocated to an action and some observable payoff is obtained. The goal is to maximize the total payoff obtained in a sequence of allocations. The name bandit refers to the colloquial term for a slot machine (a "one-armed bandit" in American slang). In a casino, a sequential allocation problem is obtained when the player is facing many slot machines at once (a "multi-armed bandit"), and must repeatedly choose where to insert the next coin. Multi-armed bandit problems are the most basic examples of sequential decision problems with an exploration-exploitation trade-off. This is the balance between staying with the option that gave highest payoffs in the past and exploring new options that might give higher payoffs in the future. Although the study of bandit problems dates back to the 1930s, exploration-exploitation trade-offs arise in several modern applications, such as ad placement, website optimization, and packet routing. Mathematically, a multi-armed bandit is defined by the payoff process associated with each option. In this book, the focus is on two extreme cases in which the analysis of regret is particularly simple and elegant: independent and identically distributed payoffs and adversarial payoffs. Besides the basic setting of finitely many actions, it also analyzes some of the most important variants and extensions, such as the contextual bandit model. This monograph is an ideal reference for students and researchers with an interest in bandit problems.

„Über diesen Titel“ kann sich auf eine andere Ausgabe dieses Titels beziehen.

Gebraucht kaufen

Zustand: Wie neu
Unread book in perfect condition...
Diesen Artikel anzeigen

EUR 17,19 für den Versand von USA nach Deutschland

Versandziele, Kosten & Dauer

EUR 4,47 für den Versand von Vereinigtes Königreich nach Deutschland

Versandziele, Kosten & Dauer

Suchergebnisse für Regret Analysis of Stochastic and Nonstochastic Multi-Armed...

Beispielbild für diese ISBN

Sébastien Bubeck
Verlag: Now Publishers, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Neu PAP
Print-on-Demand

Anbieter: PBShop.store UK, Fairford, GLOS, Vereinigtes Königreich

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

PAP. Zustand: New. New Book. Delivered from our UK warehouse in 4 to 14 business days. THIS BOOK IS PRINTED ON DEMAND. Established seller since 2000. Bestandsnummer des Verkäufers IQ-9781601986269

Verkäufer kontaktieren

Neu kaufen

EUR 85,93
Währung umrechnen
Versand: EUR 4,47
Von Vereinigtes Königreich nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: 15 verfügbar

In den Warenkorb

Foto des Verkäufers

Bubeck, Sébastien; Nicolò, Cesa-bianchi
Verlag: Now Publishers, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Neu Softcover

Anbieter: GreatBookPrices, Columbia, MD, USA

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Zustand: New. Bestandsnummer des Verkäufers 19193988-n

Verkäufer kontaktieren

Neu kaufen

EUR 76,52
Währung umrechnen
Versand: EUR 17,19
Von USA nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: Mehr als 20 verfügbar

In den Warenkorb

Beispielbild für diese ISBN

Bubeck, Sébastien; Nicolò, Cesa-Bianchi
Verlag: Now Publishers, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Neu Softcover

Anbieter: California Books, Miami, FL, USA

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Zustand: New. Bestandsnummer des Verkäufers I-9781601986269

Verkäufer kontaktieren

Neu kaufen

EUR 85,94
Währung umrechnen
Versand: EUR 8,60
Von USA nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: Mehr als 20 verfügbar

In den Warenkorb

Foto des Verkäufers

Bubeck, Sà bastien; Nicolà , Cesa-bianchi
Verlag: Now Publishers, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Neu Softcover

Anbieter: GreatBookPricesUK, Woodford Green, Vereinigtes Königreich

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Zustand: New. Bestandsnummer des Verkäufers 19193988-n

Verkäufer kontaktieren

Neu kaufen

EUR 85,92
Währung umrechnen
Versand: EUR 17,30
Von Vereinigtes Königreich nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: Mehr als 20 verfügbar

In den Warenkorb

Foto des Verkäufers

Bubeck, Sébastien; Nicolò, Cesa-bianchi
Verlag: Now Publishers, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Gebraucht Softcover

Anbieter: GreatBookPrices, Columbia, MD, USA

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Zustand: As New. Unread book in perfect condition. Bestandsnummer des Verkäufers 19193988

Verkäufer kontaktieren

Gebraucht kaufen

EUR 86,99
Währung umrechnen
Versand: EUR 17,19
Von USA nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: Mehr als 20 verfügbar

In den Warenkorb

Beispielbild für diese ISBN

Sebastien Bubeck
Verlag: now publishers Inc, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Neu Paperback / softback
Print-on-Demand

Anbieter: THE SAINT BOOKSTORE, Southport, Vereinigtes Königreich

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Paperback / softback. Zustand: New. This item is printed on demand. New copy - Usually dispatched within 5-9 working days 234. Bestandsnummer des Verkäufers C9781601986269

Verkäufer kontaktieren

Neu kaufen

EUR 100,87
Währung umrechnen
Versand: EUR 5,10
Von Vereinigtes Königreich nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: Mehr als 20 verfügbar

In den Warenkorb

Foto des Verkäufers

Sébastien Bubeck, Cesa-Bianchi Nicolò
Verlag: now publishers Inc, US, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Neu Paperback

Anbieter: Rarewaves USA, OSWEGO, IL, USA

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Paperback. Zustand: New. A multi-armed bandit problem - or, simply, a bandit problem - is a sequential allocation problem defined by a set of actions. At each time step, a unit resource is allocated to an action and some observable payoff is obtained. The goal is to maximize the total payoff obtained in a sequence of allocations. The name bandit refers to the colloquial term for a slot machine (a ""one-armed bandit"" in American slang). In a casino, a sequential allocation problem is obtained when the player is facing many slot machines at once (a ""multi-armed bandit""), and must repeatedly choose where to insert the next coin.Multi-armed bandit problems are the most basic examples of sequential decision problems with an exploration-exploitation trade-off. This is the balance between staying with the option that gave highest payoffs in the past and exploring new options that might give higher payoffs in the future. Although the study of bandit problems dates back to the 1930s, exploration-exploitation trade-offs arise in several modern applications, such as ad placement, website optimization, and packet routing. Mathematically, a multi-armed bandit is defined by the payoff process associated with each option.In this book, the focus is on two extreme cases in which the analysis of regret is particularly simple and elegant: independent and identically distributed payoffs and adversarial payoffs. Besides the basic setting of finitely many actions, it also analyzes some of the most important variants and extensions, such as the contextual bandit model. This monograph is an ideal reference for students and researchers with an interest in bandit problems. Bestandsnummer des Verkäufers LU-9781601986269

Verkäufer kontaktieren

Neu kaufen

EUR 102,99
Währung umrechnen
Versand: EUR 3,44
Von USA nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: Mehr als 20 verfügbar

In den Warenkorb

Foto des Verkäufers

Bubeck, S. Bastian|Cesa-Bianchi, Nicolo|Bubeck, Sebastien
Verlag: Now Publishers Inc, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Neu Softcover
Print-on-Demand

Anbieter: moluna, Greven, Deutschland

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Zustand: New. Dieser Artikel ist ein Print on Demand Artikel und wird nach Ihrer Bestellung fuer Sie gedruckt. Inhaltsverzeichnis1: Introduction 2: Stochastic bandits: fundamental results 3: Adversarial bandits: fundamental results 4: Contextual Bandits 5: Linear bandits 6: Nonlinear bandits 7: Variants. Acknowledgements. ReferencesKl. Bestandsnummer des Verkäufers 448142518

Verkäufer kontaktieren

Neu kaufen

EUR 107,44
Währung umrechnen
Versand: Gratis
Innerhalb Deutschlands
Versandziele, Kosten & Dauer

Anzahl: Mehr als 20 verfügbar

In den Warenkorb

Beispielbild für diese ISBN

Bubeck, Sébastien; Nicolò, Cesa-Bianchi
Verlag: Now Publishers, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Neu Softcover

Anbieter: Ria Christie Collections, Uxbridge, Vereinigtes Königreich

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Zustand: New. In. Bestandsnummer des Verkäufers ria9781601986269_new

Verkäufer kontaktieren

Neu kaufen

EUR 103,31
Währung umrechnen
Versand: EUR 5,74
Von Vereinigtes Königreich nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: Mehr als 20 verfügbar

In den Warenkorb

Foto des Verkäufers

Bubeck, Sébastien; Nicolò, Cesa-bianchi
Verlag: Now Publishers, 2012
ISBN 10: 1601986262 ISBN 13: 9781601986269
Gebraucht Softcover

Anbieter: GreatBookPricesUK, Woodford Green, Vereinigtes Königreich

Verkäuferbewertung 5 von 5 Sternen 5 Sterne, Erfahren Sie mehr über Verkäufer-Bewertungen

Zustand: As New. Unread book in perfect condition. Bestandsnummer des Verkäufers 19193988

Verkäufer kontaktieren

Gebraucht kaufen

EUR 92,18
Währung umrechnen
Versand: EUR 17,30
Von Vereinigtes Königreich nach Deutschland
Versandziele, Kosten & Dauer

Anzahl: 5 verfügbar

In den Warenkorb

Es gibt 8 weitere Exemplare dieses Buches

Alle Suchergebnisse ansehen