Sự kết hợp giữa AI và DePIN: Sự trỗi dậy của mạng GPU phân tán
Kể từ năm 2023, AI và DePIN đã trở thành những chủ đề nóng trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá sự giao thoa giữa hai lĩnh vực này, tập trung vào việc phân tích sự phát triển của các giao thức liên quan.
Trong công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để thúc đẩy AI. Do sự phát triển của các công ty công nghệ lớn dẫn đến tình trạng thiếu GPU, các nhà phát triển khác gặp khó khăn trong việc có đủ GPU để huấn luyện mô hình AI. DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, thông qua việc khuyến khích đóng góp tài nguyên bằng phần thưởng token. Mạng DePIN trong lĩnh vực AI đã tập hợp tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, cung cấp nguồn cung đồng nhất cho người dùng.
Tổng quan về mạng DePIN AI
Render
Render là một mạng P2P tiên phong cung cấp khả năng tính toán GPU, ban đầu tập trung vào việc tạo nội dung đồ họa, sau đó đã mở rộng phạm vi để bao gồm các nhiệm vụ tính toán AI. Mạng GPU của họ đã được sử dụng bởi các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG.
Akash
Akash được định vị là một "siêu đám mây" thay thế hỗ trợ lưu trữ, tính toán GPU và CPU. AkashML của nó cho phép mạng GPU chạy hơn 15,000 mô hình trên Hugging Face.
io.net
io.net cung cấp quyền truy cập vào các cụm GPU đám mây phân tán, đặc biệt dành cho các trường hợp sử dụng AI và ML. IO-SDK của nó tương thích với các framework như PyTorch và Tensorflow, kiến trúc đa lớp có thể tự động mở rộng theo nhu cầu tính toán.
Gensyn
Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó tuyên bố đã đạt được cơ chế xác thực hiệu quả hơn bằng cách kết hợp sử dụng các khái niệm như bằng chứng học, giao thức định vị chính xác dựa trên đồ họa.
Aethir
Aethir chuyên cung cấp GPU doanh nghiệp, tập trung vào các lĩnh vực tính toán chuyên sâu, chủ yếu là trí tuệ nhân tạo, học máy, trò chơi đám mây, v.v. Các container trong mạng của nó đóng vai trò như các điểm cuối ảo thực thi các ứng dụng dựa trên đám mây, nhằm mang lại trải nghiệm độ trễ thấp.
Mạng lưới Phala
Phala Network đóng vai trò là lớp thực thi cho giải pháp AI Web3. Chuỗi khối của nó là một giải pháp điện toán đám mây không cần tin cậy, được thiết kế để xử lý các vấn đề về quyền riêng tư bằng cách sử dụng môi trường thực thi đáng tin cậy (TEE).
So sánh dự án
Các dự án có sự khác biệt về phần cứng, trọng tâm công việc, loại nhiệm vụ AI, định giá công việc, blockchain, quyền riêng tư dữ liệu, chi phí công việc, an ninh, chứng nhận hoàn thành, đảm bảo chất lượng, cụm GPU, v.v.
tầm quan trọng
Sự khả dụng của tính toán cụm và song song
Khung tính toán phân tán đã triển khai cụm GPU, cung cấp đào tạo hiệu quả hơn, đồng thời tăng cường khả năng mở rộng. Hầu hết các dự án trọng điểm hiện nay đã tích hợp cụm để đạt được tính toán song song.
Bảo mật dữ liệu
Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu có thể chứa thông tin nhạy cảm. Hầu hết các dự án đều sử dụng một hình thức mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư của dữ liệu. io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa hoàn toàn đồng nhất (FHE), cho phép xử lý dữ liệu được mã hóa mà không cần giải mã trước.
Chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Nhiều dự án cung cấp chứng nhận hoàn thành công việc và cơ chế kiểm tra chất lượng, nhằm đảm bảo chất lượng công việc và ngăn chặn gian lận.
Dữ liệu thống kê phần cứng
Các dự án có sự khác biệt về số lượng GPU, số lượng CPU, số lượng GPU hiệu suất cao và chi phí của chúng. io.net và Aethir dẫn đầu về số lượng GPU hiệu suất cao.
yêu cầu về GPU hiệu suất cao
Việc đào tạo mô hình AI cần GPU có hiệu suất tốt nhất, như A100 và H100 của Nvidia. Các nhà cung cấp thị trường GPU phi tập trung cần cung cấp đủ số lượng GPU hiệu suất cao để cạnh tranh với dịch vụ tập trung.
cung cấp GPU/CPU tiêu dùng
Một số dự án còn cung cấp GPU/CPU tiêu dùng, có thể được sử dụng cho các nhiệm vụ không quá nặng, chẳng hạn như tinh chỉnh mô hình đã được đào tạo trước hoặc đào tạo mô hình quy mô nhỏ.
Kết luận
Lĩnh vực DePIN AI vẫn còn tương đối mới nổi và đối mặt với nhiều thách thức. Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực hiện trên các mạng GPU phi tập trung này đã tăng lên đáng kể, làm nổi bật sự gia tăng nhu cầu về các giải pháp thay thế cho tài nguyên phần cứng của các nhà cung cấp đám mây Web2. Trong tương lai, những mạng GPU phân tán này sẽ đóng vai trò then chốt trong việc cung cấp các giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển, góp phần đáng kể vào cấu trúc tương lai của AI và cơ sở hạ tầng tính toán.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
6 thích
Phần thưởng
6
6
Đăng lại
Chia sẻ
Bình luận
0/400
MissingSats
· 10giờ trước
gpu thiếu hụt啊 chuyên nghiệp là lúc để lật tung mọi thứ tìm Máy khai thác rồi
Xem bản gốcTrả lời0
rugpull_ptsd
· 10giờ trước
Thiếu hụt nm đều là sự thổi phồng
Xem bản gốcTrả lời0
RegenRestorer
· 10giờ trước
Khai thác chuyển tay thì lỗ, làm sao mà khai thác.
AI và DePIN hòa nhập: Mạng GPU phân tán nổi lên dẫn đầu kỷ nguyên tính toán mới
Sự kết hợp giữa AI và DePIN: Sự trỗi dậy của mạng GPU phân tán
Kể từ năm 2023, AI và DePIN đã trở thành những chủ đề nóng trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này sẽ khám phá sự giao thoa giữa hai lĩnh vực này, tập trung vào việc phân tích sự phát triển của các giao thức liên quan.
Trong công nghệ AI, mạng DePIN cung cấp tài nguyên tính toán để thúc đẩy AI. Do sự phát triển của các công ty công nghệ lớn dẫn đến tình trạng thiếu GPU, các nhà phát triển khác gặp khó khăn trong việc có đủ GPU để huấn luyện mô hình AI. DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn, thông qua việc khuyến khích đóng góp tài nguyên bằng phần thưởng token. Mạng DePIN trong lĩnh vực AI đã tập hợp tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, cung cấp nguồn cung đồng nhất cho người dùng.
Tổng quan về mạng DePIN AI
Render
Render là một mạng P2P tiên phong cung cấp khả năng tính toán GPU, ban đầu tập trung vào việc tạo nội dung đồ họa, sau đó đã mở rộng phạm vi để bao gồm các nhiệm vụ tính toán AI. Mạng GPU của họ đã được sử dụng bởi các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG.
Akash
Akash được định vị là một "siêu đám mây" thay thế hỗ trợ lưu trữ, tính toán GPU và CPU. AkashML của nó cho phép mạng GPU chạy hơn 15,000 mô hình trên Hugging Face.
io.net
io.net cung cấp quyền truy cập vào các cụm GPU đám mây phân tán, đặc biệt dành cho các trường hợp sử dụng AI và ML. IO-SDK của nó tương thích với các framework như PyTorch và Tensorflow, kiến trúc đa lớp có thể tự động mở rộng theo nhu cầu tính toán.
Gensyn
Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó tuyên bố đã đạt được cơ chế xác thực hiệu quả hơn bằng cách kết hợp sử dụng các khái niệm như bằng chứng học, giao thức định vị chính xác dựa trên đồ họa.
Aethir
Aethir chuyên cung cấp GPU doanh nghiệp, tập trung vào các lĩnh vực tính toán chuyên sâu, chủ yếu là trí tuệ nhân tạo, học máy, trò chơi đám mây, v.v. Các container trong mạng của nó đóng vai trò như các điểm cuối ảo thực thi các ứng dụng dựa trên đám mây, nhằm mang lại trải nghiệm độ trễ thấp.
Mạng lưới Phala
Phala Network đóng vai trò là lớp thực thi cho giải pháp AI Web3. Chuỗi khối của nó là một giải pháp điện toán đám mây không cần tin cậy, được thiết kế để xử lý các vấn đề về quyền riêng tư bằng cách sử dụng môi trường thực thi đáng tin cậy (TEE).
So sánh dự án
Các dự án có sự khác biệt về phần cứng, trọng tâm công việc, loại nhiệm vụ AI, định giá công việc, blockchain, quyền riêng tư dữ liệu, chi phí công việc, an ninh, chứng nhận hoàn thành, đảm bảo chất lượng, cụm GPU, v.v.
tầm quan trọng
Sự khả dụng của tính toán cụm và song song
Khung tính toán phân tán đã triển khai cụm GPU, cung cấp đào tạo hiệu quả hơn, đồng thời tăng cường khả năng mở rộng. Hầu hết các dự án trọng điểm hiện nay đã tích hợp cụm để đạt được tính toán song song.
Bảo mật dữ liệu
Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu có thể chứa thông tin nhạy cảm. Hầu hết các dự án đều sử dụng một hình thức mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư của dữ liệu. io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa hoàn toàn đồng nhất (FHE), cho phép xử lý dữ liệu được mã hóa mà không cần giải mã trước.
Chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Nhiều dự án cung cấp chứng nhận hoàn thành công việc và cơ chế kiểm tra chất lượng, nhằm đảm bảo chất lượng công việc và ngăn chặn gian lận.
Dữ liệu thống kê phần cứng
Các dự án có sự khác biệt về số lượng GPU, số lượng CPU, số lượng GPU hiệu suất cao và chi phí của chúng. io.net và Aethir dẫn đầu về số lượng GPU hiệu suất cao.
yêu cầu về GPU hiệu suất cao
Việc đào tạo mô hình AI cần GPU có hiệu suất tốt nhất, như A100 và H100 của Nvidia. Các nhà cung cấp thị trường GPU phi tập trung cần cung cấp đủ số lượng GPU hiệu suất cao để cạnh tranh với dịch vụ tập trung.
cung cấp GPU/CPU tiêu dùng
Một số dự án còn cung cấp GPU/CPU tiêu dùng, có thể được sử dụng cho các nhiệm vụ không quá nặng, chẳng hạn như tinh chỉnh mô hình đã được đào tạo trước hoặc đào tạo mô hình quy mô nhỏ.
Kết luận
Lĩnh vực DePIN AI vẫn còn tương đối mới nổi và đối mặt với nhiều thách thức. Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực hiện trên các mạng GPU phi tập trung này đã tăng lên đáng kể, làm nổi bật sự gia tăng nhu cầu về các giải pháp thay thế cho tài nguyên phần cứng của các nhà cung cấp đám mây Web2. Trong tương lai, những mạng GPU phân tán này sẽ đóng vai trò then chốt trong việc cung cấp các giải pháp tính toán hiệu quả về chi phí cho các nhà phát triển, góp phần đáng kể vào cấu trúc tương lai của AI và cơ sở hạ tầng tính toán.