Tại sao NVIDIA lại chế tạo GPU lớn nhất thế giới?

tai-sao-nvidia-lai-che-tao-gpu-lon-nhat-the-gioi

Tại một số thời điểm trong tương lai không xa, câu trả lời sẽ có vẻ hiển nhiên . Giống như rất nhiều thứ, thời gian thay đổi quan điểm; những tiến bộ cần thiết mà chúng tôi cho là có được ngay bây giờ đã từng được coi là không thể vượt qua. Tôi tin rằng chúng tôi sẽ xem xét lại việc giới thiệu một hệ thống học tập sâu 2 petaFLOPS là điều cần thiết cho sự tiến hóa của AI trong doanh nghiệp. Đây là lý do tại sao.

Các hệ thống GPU đơn lẻ từng cung cấp một sân chơi dường như vô hạn cho các nhà nghiên cứu và nhà phát triển để đổi mới. Khi sự phức tạp và tập dữ liệu mô hình học tập phát triển để giải quyết các trường hợp sử dụng ngày càng kỳ lạ (nhưng quan trọng), đồng tiền là thước đo chuẩn của tính toán cho học tập sâu rộng tăng lên để đáp ứng nhu cầu. Tám hệ thống GPU hiện là trụ cột của các doanh nghiệp trên toàn thế giới, với NVIDIA DGX-1 thiết lập thước đo hơn hai năm trước.

Bài viết hay nhất 6 thủ thuật điều chỉnh màn hình trên Windows 10

Chúng tôi đã xây dựng DGX-1 để giải quyết tình huống khó xử mà mọi nhà phát triển đều phải đối mặt , cụ thể là lần đầu tiên họ kéo mô hình của họ qua 2 hoặc 4 GPU và nhận thấy sự thiếu tuyến tính trong hiệu suất khi thêm GPU. Đây thường là điểm mà tại đó họ sẽ bắt đầu quan sát các lợi ích của các hệ thống dựa trên NVLink . NVLink loại bỏ tắc nghẽn “chi phí truyền thông” được tìm thấy trong các cấu hình dựa trên PCIe truyền thống – một nút cổ chai có thể không rõ ràng nếu bạn đang xử lý các trường hợp GPU đơn lẻ. NVIDIA DGX-1 thực hiện liên kết NVLink trong cấu trúc liên kết dạng khối lập phương lai, cung cấp kết nối GPU-GPU trực tiếp.

Chúng tôi hiện đang tiếp cận mối quan hệ quan trọng đó, nơi khám phá và sáng tạo AI một lần nữa thử nghiệm các giới hạn về kiến ​​trúc máy tính hiện đại có thể hỗ trợ . Khi các nhà phát triển và các nhà nghiên cứu tìm cách khai thác các mức tăng mô hình song song và dữ liệu với hy vọng đạt được hiệu suất và độ chính xác học tập sâu hơn, họ đang thực hiện các thỏa hiệp kiến ​​trúc để có được dấu chân tính toán cần thiết để hỗ trợ công việc của họ.

Một số tổ chức sẽ triển khai các cụm lớn gồm các hệ thống 8 chiều được kết nối qua một thiết bị InfiniBand hoặc Ethernet để đạt được quy mô. Cách tiếp cận này lý tưởng trong việc phục vụ nhiều người dùng chạy nhiều thử nghiệm AI song song, đặc biệt nếu những thí nghiệm này không tiêu thụ nhiều hơn “đơn vị đo lường” chuẩn (8 GPU) có sẵn trong các môi trường đó. Nhưng khi một mô hình cá nhân cực kỳ lớn và phức tạp, và yêu cầu tổng công suất của 9, 12 hoặc thậm chí 16 GPU, các nhà phát triển sớm quan sát hiệu suất giảm dần về hiệu suất khi họ kết nối các hệ thống AI qua mạng. Kịch bản này phục vụ như là một điểm đến giới hạn cho việc tìm kiếm một khối xây dựng nút tính toán dày đặc hơn.

Chúng tôi đã xây dựng “GPU lớn nhất thế giới” để giải quyết cơ hội này. Chúng tôi muốn cho phép các nhà phát triển mở rộng phạm vi sáng tạo của họ và khai thác sức mạnh của 16 GPU hoạt động như một, không có mạng trung gian. NVSwitch là một cách tiếp cận mới mang tính cách mạng để tích hợp 16 GPU trong một không gian bộ nhớ thống nhất với băng thông cực cao và độ trễ thấp, bất kỳ kết nối nào. Và kết hợp với việc tăng gấp đôi bộ nhớ khả dụng trên mỗi GPU (hiện tại là 32GB), chúng tôi thấy sự tăng trưởng dự đoán giữa các khách hàng sẽ cho phép quy mô AI trên một cấp độ hoàn toàn mới với DGX-2  trước đây chưa được kiểm soát. Với sự ra đời của GPU lớn nhất thế giới, các nhà phát triển ở khắp mọi nơi mong muốn xây dựng các mô hình học tập sâu rộng phức tạp nhất để giải quyết những thách thức quan trọng nhất của thế giới.

Đánh giá
Ngày
Bài viết
Tại sao NVIDIA lại chế tạo GPU lớn nhất thế giới?
Thang điểm
51star1star1star1star1star

Giới thiệu tác giả

.