Cái chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có ngưỡng kỹ thuật cao nhất, quyết định trực tiếp khả năng tối đa của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ, quá trình đào tạo cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo phi tập trung mà bài viết này sẽ thảo luận trọng tâm.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức đơn lẻ trong cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm tầng dưới, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều do một hệ thống kiểm soát thống nhất điều phối hoạt động. Kiến trúc hợp tác sâu sắc này giúp hiệu suất chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán hiện đang là phương pháp chính trong việc huấn luyện các mô hình lớn, cốt lõi của nó là phân tách nhiệm vụ huấn luyện mô hình và phân phối chúng tới nhiều máy để thực hiện đồng thời, nhằm vượt qua các giới hạn về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các cơ quan tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính điều phối đồng nhất các nhiệm vụ con. Các phương pháp chính bao gồm:
Song song dữ liệu: Mỗi nút đào tạo các tham số dữ liệu khác nhau, chia sẻ trọng số mô hình, cần phải khớp.
Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
Đường ống song song: Thực hiện tuần tự theo từng giai đoạn, nâng cao thông lượng
Phân đoạn tensor: tinh chỉnh phân mảnh tính toán ma trận, nâng cao độ tinh vi của sự song song
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như việc một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện nay, hầu hết các mô hình lớn chính đều được đào tạo theo cách này.
Phi tập trung đào tạo đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm chính của nó là: nhiều nút không tin cậy lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không có người điều phối trung tâm, thường thông qua các giao thức điều khiển việc phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của sự đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Thiết bị không đồng nhất và khó chia tách: Khó khăn trong việc phối hợp thiết bị không đồng nhất, hiệu quả chia tách nhiệm vụ thấp.
Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ ràng
Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh nút có thực sự tham gia tính toán hay không.
Thiếu sự phối hợp thống nhất: Không có bộ điều phối trung ương, việc phân phát nhiệm vụ và cơ chế hoàn tác sự cố phức tạp
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập trung tổng hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến việc tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của việc đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có những lợi thế phân tán của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy và không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Có thể coi đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp đều tương đối ôn hòa, phù hợp hơn để làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và lộ trình thực tế
Từ góc độ phương thức đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó trong hợp tác, nó tự nhiên không phù hợp để hoàn thành một cách hiệu quả giữa các nút không đồng nhất và không cần tin tưởng. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ đồ họa cao, độ trễ thấp và băng thông cao, khó có thể chia tách và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị ràng buộc bởi quy định pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của việc đào tạo phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên kết hành vi, nhiệm vụ đào tạo và gán nhãn từ nguồn dữ liệu, đào tạo mô hình cơ bản nhỏ với kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, tính liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán, v.v.
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện nay, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện tại; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy sự tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đằng sau năm dự án này, và sẽ thảo luận thêm về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Huấn luyện theo dõi có thể xác minh mạng lưới hợp tác học tập tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới huấn luyện AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia huấn luyện và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, sẽ xây dựng một hệ thống huấn luyện AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích đầy đủ.
01、Cấu trúc giao thức Prime Intellect và giá trị của các mô-đun chính
Ngăn xếp giao thức của Prime Intellect bao gồm ba mô-đun cốt lõi PRIME-RL, TOPLOC và SHARDCAST, lần lượt giải quyết các vấn đề huấn luyện bất đồng bộ, xác minh đáng tin cậy và truyền trọng số.
02、Giải thích chi tiết về cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các tình huống đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và tham gia bất đồng bộ. Nó sử dụng học tăng cường như đối tượng thích ứng ưu tiên, tách rời cấu trúc giữa quá trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương, và phối hợp thông qua giao diện tiêu chuẩn hóa với cơ chế xác thực và tổng hợp. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn trong môi trường không có lịch trình trung tâm để thực hiện đào tạo linh hoạt, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi khả năng xác minh đào tạo do Prime Intellect đề xuất, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thực hiện xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo đồng nhất cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên hành vi quỹ đạo trong quá trình đào tạo được chuyển đổi thành đối tượng có thể xác minh, là sự đổi mới then chốt để đạt được phân phối phần thưởng đào tạo không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể tạo động lực.
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số không đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho môi trường mạng thực tế với tính chất không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền tin gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp không đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa truyền thông độc lập được nhóm Prime Intellect thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để giải quyết các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và sự không ổn định của các nút. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào nhiệm vụ đào tạo, tăng cường đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện truyền thông hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường huấn luyện AI Phi tập trung, nhằm giải quyết các nút thắt thích ứng của thư viện giao tiếp truyền thống trên các thiết bị không đồng nhất và mạng lưới băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông và tính tương thích thiết bị của mạng huấn luyện, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp nhằm xây dựng một mạng huấn luyện hợp tác thực sự mở và không cần tin cậy.
03、Prime Intellect kích thích mạng và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh, với cơ chế động lực kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường huấn luyện, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác thực
Nút huấn luyện: thực hiện huấn luyện cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia vào việc tính toán phần thưởng và tổng hợp chiến lược.
Quy trình cốt lõi của giao thức bao gồm việc phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học sâu lớn đầu tiên trên thế giới được huấn luyện thông qua hợp tác giữa các nút phi tập trung không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được huấn luyện đồng thời bởi hơn 100 nút GPU không đồng nhất trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian huấn luyện vượt quá 400 giờ, chứng minh khả năng và tính ổn định của mạng lưới hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là lần đầu tiên hệ thống hóa khái niệm "huấn luyện chính là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu việc mạng lưới huấn luyện phi tập trung lần đầu tiên đạt được tính mở, khả năng xác minh và vòng khép kín khuyến khích kinh tế trong quá trình huấn luyện.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 thích
Phần thưởng
10
6
Chia sẻ
Bình luận
0/400
GasFeeCrier
· 11giờ trước
À, AI này huấn luyện chắc tốn nhiều Khả năng tính toán nhỉ.
Xem bản gốcTrả lời0
ChainMaskedRider
· 11giờ trước
Ít nói về việc không biết bẫy này.
Xem bản gốcTrả lời0
GateUser-40edb63b
· 11giờ trước
Cuốn điên rồi à
Xem bản gốcTrả lời0
SillyWhale
· 11giờ trước
Thế này mà gọi là Phi tập trung? Còn không bằng gọi là Khả năng tính toán dân chủ hóa.
Xem bản gốcTrả lời0
TestnetScholar
· 11giờ trước
Độc quyền khả năng tính toán mới là nguyên nhân của vấn đề.
Xem bản gốcTrả lời0
P2ENotWorking
· 11giờ trước
Có tác dụng gì chứ, không phải vẫn phải miễn phí mô hình lớn à?
Phi tập trung AI đào tạo của đột phá: Prime Intellect dẫn dắt mạng lưới hợp tác theo hình thức mới
Cái chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có ngưỡng kỹ thuật cao nhất, quyết định trực tiếp khả năng tối đa của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ, quá trình đào tạo cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo phi tập trung mà bài viết này sẽ thảo luận trọng tâm.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức đơn lẻ trong cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm tầng dưới, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều do một hệ thống kiểm soát thống nhất điều phối hoạt động. Kiến trúc hợp tác sâu sắc này giúp hiệu suất chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán hiện đang là phương pháp chính trong việc huấn luyện các mô hình lớn, cốt lõi của nó là phân tách nhiệm vụ huấn luyện mô hình và phân phối chúng tới nhiều máy để thực hiện đồng thời, nhằm vượt qua các giới hạn về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các cơ quan tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính điều phối đồng nhất các nhiệm vụ con. Các phương pháp chính bao gồm:
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như việc một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện nay, hầu hết các mô hình lớn chính đều được đào tạo theo cách này.
Phi tập trung đào tạo đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm chính của nó là: nhiều nút không tin cậy lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không có người điều phối trung tâm, thường thông qua các giao thức điều khiển việc phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của sự đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập trung tổng hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến việc tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của việc đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có những lợi thế phân tán của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy và không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Có thể coi đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp đều tương đối ôn hòa, phù hợp hơn để làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và lộ trình thực tế
Từ góc độ phương thức đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó trong hợp tác, nó tự nhiên không phù hợp để hoàn thành một cách hiệu quả giữa các nút không đồng nhất và không cần tin tưởng. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ đồ họa cao, độ trễ thấp và băng thông cao, khó có thể chia tách và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị ràng buộc bởi quy định pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của việc đào tạo phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên kết hành vi, nhiệm vụ đào tạo và gán nhãn từ nguồn dữ liệu, đào tạo mô hình cơ bản nhỏ với kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, tính liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán, v.v.
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện nay, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện tại; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy sự tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đằng sau năm dự án này, và sẽ thảo luận thêm về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Huấn luyện theo dõi có thể xác minh mạng lưới hợp tác học tập tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới huấn luyện AI không cần tin tưởng, cho phép bất kỳ ai cũng có thể tham gia huấn luyện và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, sẽ xây dựng một hệ thống huấn luyện AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích đầy đủ.
01、Cấu trúc giao thức Prime Intellect và giá trị của các mô-đun chính
Ngăn xếp giao thức của Prime Intellect bao gồm ba mô-đun cốt lõi PRIME-RL, TOPLOC và SHARDCAST, lần lượt giải quyết các vấn đề huấn luyện bất đồng bộ, xác minh đáng tin cậy và truyền trọng số.
02、Giải thích chi tiết về cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các tình huống đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và tham gia bất đồng bộ. Nó sử dụng học tăng cường như đối tượng thích ứng ưu tiên, tách rời cấu trúc giữa quá trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương, và phối hợp thông qua giao diện tiêu chuẩn hóa với cơ chế xác thực và tổng hợp. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn trong môi trường không có lịch trình trung tâm để thực hiện đào tạo linh hoạt, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi khả năng xác minh đào tạo do Prime Intellect đề xuất, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thực hiện xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo đồng nhất cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên hành vi quỹ đạo trong quá trình đào tạo được chuyển đổi thành đối tượng có thể xác minh, là sự đổi mới then chốt để đạt được phân phối phần thưởng đào tạo không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể tạo động lực.
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số không đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho môi trường mạng thực tế với tính chất không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền tin gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp không đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa truyền thông độc lập được nhóm Prime Intellect thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để giải quyết các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và sự không ổn định của các nút. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào nhiệm vụ đào tạo, tăng cường đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện truyền thông hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường huấn luyện AI Phi tập trung, nhằm giải quyết các nút thắt thích ứng của thư viện giao tiếp truyền thống trên các thiết bị không đồng nhất và mạng lưới băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông và tính tương thích thiết bị của mạng huấn luyện, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp nhằm xây dựng một mạng huấn luyện hợp tác thực sự mở và không cần tin cậy.
03、Prime Intellect kích thích mạng và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh, với cơ chế động lực kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm việc phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học sâu lớn đầu tiên trên thế giới được huấn luyện thông qua hợp tác giữa các nút phi tập trung không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được huấn luyện đồng thời bởi hơn 100 nút GPU không đồng nhất trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian huấn luyện vượt quá 400 giờ, chứng minh khả năng và tính ổn định của mạng lưới hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là lần đầu tiên hệ thống hóa khái niệm "huấn luyện chính là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu việc mạng lưới huấn luyện phi tập trung lần đầu tiên đạt được tính mở, khả năng xác minh và vòng khép kín khuyến khích kinh tế trong quá trình huấn luyện.
Tại phương diện hiệu suất