Distributed machine learning with Python : accelerating model training and serving with distributed systems /

Chapter 2: Parameter Server and All-Reduce -- Technical requirements -- Parameter server architecture -- Communication bottleneck in the parameter server architecture -- Sharding the model among parameter servers -- Implementing the parameter server -- Defining model layers -- Defining the parameter...

Mô tả đầy đủ

Chi tiết về thư mục
Tác giả chính: Wang, Guanhua
Định dạng: Licensed eBooks
Ngôn ngữ:Tiếng Anh
Được phát hành: Birmingham : Packt Publishing, Limited, 2022.
Truy cập trực tuyến:https://search.ebscohost.com/login.aspx?direct=true&scope=site&db=nlebk&AN=3242106
Miêu tả
Tóm tắt:Chapter 2: Parameter Server and All-Reduce -- Technical requirements -- Parameter server architecture -- Communication bottleneck in the parameter server architecture -- Sharding the model among parameter servers -- Implementing the parameter server -- Defining model layers -- Defining the parameter server -- Defining the worker -- Passing data between the parameter server and worker -- Issues with the parameter server -- The parameter server architecture introduces a high coding complexity for practitioners -- All-Reduce architecture -- Reduce -- All-Reduce -- Ring All-Reduce.
Mô tả sách:Pros and cons of pipeline parallelism.
Mô tả vật lý:1 online resource (284 pages) : color illustrations
số ISBN:1801817219
9781801817219
9781801815697