Chén thánh của Crypto AI: Phi tập trung đào tạo khám phá tiên phong
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên nhất và có rào cản kỹ thuật cao nhất, trực tiếp quyết định khả năng tối đa của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình đào tạo cần đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu năng cao tại chỗ, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều do một hệ thống kiểm soát thống nhất phối hợp hoạt động. Kiến trúc phối hợp sâu sắc này giúp hiệu suất của việc chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt tối ưu, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu suất cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương thức chính trong việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân tách nhiệm vụ huấn luyện mô hình và phân phối tới nhiều máy tính để hợp tác thực hiện, nhằm vượt qua các nút thắt trong tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "phân tán", nhưng tổng thể vẫn được một tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết nhanh NVLink, các nút chính sẽ phối hợp thống nhất các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: Mỗi nút huấn luyện các tham số dữ liệu khác nhau, chia sẻ trọng số mô hình, cần phải khớp.
Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
Ống dẫn song song: Thực hiện tuần tự theo giai đoạn, nâng cao thông lượng
Phân tán tensor: phân đoạn tinh vi tính toán ma trận, nâng cao độ phân giải song song
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chính đều được hoàn thành huấn luyện theo cách này.
Phi tập trung đào tạo đại diện cho con đường tương lai với tính mở và khả năng chống kiểm duyệt cao hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau phối hợp thực hiện nhiệm vụ đào tạo mà không cần người điều phối trung tâm, thường thông qua giao thức để thúc đẩy phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Thiết bị không đồng nhất và khó khăn trong việc phân chia: Khó khăn trong việc phối hợp thiết bị không đồng nhất, hiệu quả phân chia nhiệm vụ thấp
Bottleneck hiệu quả truyền thông: Giao tiếp mạng không ổn định, rõ ràng là có nút thắt trong việc đồng bộ gradient
Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không
Thiếu sự phối hợp thống nhất: không có bộ điều độ trung ương, việc phân phát nhiệm vụ và cơ chế hoàn tác bất thường phức tạp
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người góp phần tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, tuy nhiên, khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang trong giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, như một hình thức chuyển tiếp giữa phân phối và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập trung tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của việc đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời mang lại lợi thế phân tán dữ liệu của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy và không có tính chất hoàn toàn mở và chống kiểm duyệt. Nó có thể được xem là một giải pháp "Phi tập trung có kiểm soát" trong bối cảnh tuân thủ quyền riêng tư, với các tác vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp tương đối ôn hòa, thích hợp hơn cho việc triển khai tạm thời trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Từ góc độ mô hình đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên rất cao hoặc độ khó trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút khác nhau, không có sự tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và giới hạn chủ quyền bị ràng buộc bởi tuân thủ pháp luật và đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu nền tảng khuyến khích hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những giới hạn thực tế của Phi tập trung đào tạo hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ rệt. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo sau liên quan đến căn chỉnh hành vi, nhiệm vụ đào tạo và gán nhãn dữ liệu crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo phân tích dự án cổ điển
Hiện tại, trong lĩnh vực đào tạo Phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ bước đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.
Prime Intellect: Đường đi của việc huấn luyện có thể được xác minh của mạng lưới hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, tính mở và cơ chế khuyến khích đầy đủ.
01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
02、Giải thích chi tiết về cơ chế đào tạo Prime Intellect
#PRIME-RL: Kiến trúc nhiệm vụ học tăng cường phi tập trung không đồng bộ
PRIME-RL là một khuôn khổ mô hình hóa và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng ưu tiên thích ứng, tách biệt có cấu trúc quy trình đào tạo, suy luận và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương, đồng thời phối hợp với cơ chế xác thực và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL thích hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
#TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi có thể xác minh được do Prime Intellect đề xuất, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không dựa vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ. Đây là lần đầu tiên quá trình hành vi trong quá trình đào tạo được chuyển đổi thành đối tượng có thể xác minh, là đổi mới then chốt để thực hiện phân phối phần thưởng đào tạo không cần tin cậy, cung cấp một con đường khả thi để xây dựng mạng lưới hợp tác đào tạo phân quyền có thể kiểm toán và có thể khuyến khích.
#SHARDCAST: Giao thức tổng hợp và truyền bá trọng số bất đồng bộ
SHARDCAST là giao thức truyền và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo lặp đi lặp lại.
#OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt cho các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và độ ổn định của nút. Kiến trúc của nó dựa trên sự phân tán dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành đào tạo hợp tác mô hình. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
#PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI phi tập trung, nhằm giải quyết nút thắt thích ứng của các thư viện giao tiếp truyền thống trong các thiết bị đa dạng và mạng có băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối" cho cơ sở giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
03、Prime Intellect khuyến khích mạng lưới và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường huấn luyện, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
Nút đào tạo: thực hiện đào tạo cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia tính toán phần thưởng cũng như hợp nhất chiến lược.
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được huấn luyện bởi sự hợp tác của các nút phi tập trung không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua việc huấn luyện phối hợp của hơn 100 nút GPU heterogene trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian huấn luyện hơn 400 giờ, cho thấy tính khả thi và ổn định của mạng hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự triển khai hệ thống đầu tiên của nguyên tắc "huấn luyện tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu việc mạng huấn luyện phi tập trung lần đầu tiên được hiện thực hóa.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
22 thích
Phần thưởng
22
9
Đăng lại
Chia sẻ
Bình luận
0/400
DEXRobinHood
· 07-22 13:20
Viết dài như vậy ai mà đọc hết chứ? Cho mình một bản tóm tắt đi.
Xem bản gốcTrả lời0
BlockchainBouncer
· 07-22 02:56
Không hiểu, làm vậy để làm gì?
Xem bản gốcTrả lời0
GateUser-ccc36bc5
· 07-21 08:02
Đây mới là cốt lõi thực sự.
Xem bản gốcTrả lời0
MEVHunterZhang
· 07-19 13:57
Lại chờ đợi chơi đùa với mọi người một lần nữa?
Xem bản gốcTrả lời0
GweiWatcher
· 07-19 13:57
Đợi chơi cho Suckers lại đến rồi
Xem bản gốcTrả lời0
IfIWereOnChain
· 07-19 13:54
Nghiên cứu về đào tạo phân tán chắc chắn đã được thực hiện từ lâu.
Khám phá Phi tập trung AI đào tạo: Từ Prime Intellect đến các thực hành tiên tiến của Pluralis
Chén thánh của Crypto AI: Phi tập trung đào tạo khám phá tiên phong
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên nhất và có rào cản kỹ thuật cao nhất, trực tiếp quyết định khả năng tối đa của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình đào tạo cần đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu năng cao tại chỗ, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều do một hệ thống kiểm soát thống nhất phối hợp hoạt động. Kiến trúc phối hợp sâu sắc này giúp hiệu suất của việc chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt tối ưu, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu suất cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương thức chính trong việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân tách nhiệm vụ huấn luyện mô hình và phân phối tới nhiều máy tính để hợp tác thực hiện, nhằm vượt qua các nút thắt trong tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "phân tán", nhưng tổng thể vẫn được một tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết nhanh NVLink, các nút chính sẽ phối hợp thống nhất các nhiệm vụ con. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chính đều được hoàn thành huấn luyện theo cách này.
Phi tập trung đào tạo đại diện cho con đường tương lai với tính mở và khả năng chống kiểm duyệt cao hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau phối hợp thực hiện nhiệm vụ đào tạo mà không cần người điều phối trung tâm, thường thông qua giao thức để thúc đẩy phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người góp phần tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, tuy nhiên, khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang trong giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, như một hình thức chuyển tiếp giữa phân phối và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập trung tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của việc đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời mang lại lợi thế phân tán dữ liệu của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy và không có tính chất hoàn toàn mở và chống kiểm duyệt. Nó có thể được xem là một giải pháp "Phi tập trung có kiểm soát" trong bối cảnh tuân thủ quyền riêng tư, với các tác vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp tương đối ôn hòa, thích hợp hơn cho việc triển khai tạm thời trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Từ góc độ mô hình đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên rất cao hoặc độ khó trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút khác nhau, không có sự tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và giới hạn chủ quyền bị ràng buộc bởi tuân thủ pháp luật và đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu nền tảng khuyến khích hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những giới hạn thực tế của Phi tập trung đào tạo hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ rệt. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo sau liên quan đến căn chỉnh hành vi, nhiệm vụ đào tạo và gán nhãn dữ liệu crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo phân tích dự án cổ điển
Hiện tại, trong lĩnh vực đào tạo Phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ bước đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.
Prime Intellect: Đường đi của việc huấn luyện có thể được xác minh của mạng lưới hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, tính mở và cơ chế khuyến khích đầy đủ.
01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
02、Giải thích chi tiết về cơ chế đào tạo Prime Intellect
#PRIME-RL: Kiến trúc nhiệm vụ học tăng cường phi tập trung không đồng bộ
PRIME-RL là một khuôn khổ mô hình hóa và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng ưu tiên thích ứng, tách biệt có cấu trúc quy trình đào tạo, suy luận và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương, đồng thời phối hợp với cơ chế xác thực và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL thích hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
#TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi có thể xác minh được do Prime Intellect đề xuất, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không dựa vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ. Đây là lần đầu tiên quá trình hành vi trong quá trình đào tạo được chuyển đổi thành đối tượng có thể xác minh, là đổi mới then chốt để thực hiện phân phối phần thưởng đào tạo không cần tin cậy, cung cấp một con đường khả thi để xây dựng mạng lưới hợp tác đào tạo phân quyền có thể kiểm toán và có thể khuyến khích.
#SHARDCAST: Giao thức tổng hợp và truyền bá trọng số bất đồng bộ
SHARDCAST là giao thức truyền và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo lặp đi lặp lại.
#OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt cho các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và độ ổn định của nút. Kiến trúc của nó dựa trên sự phân tán dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành đào tạo hợp tác mô hình. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
#PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI phi tập trung, nhằm giải quyết nút thắt thích ứng của các thư viện giao tiếp truyền thống trong các thiết bị đa dạng và mạng có băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối" cho cơ sở giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
03、Prime Intellect khuyến khích mạng lưới và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được huấn luyện bởi sự hợp tác của các nút phi tập trung không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua việc huấn luyện phối hợp của hơn 100 nút GPU heterogene trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian huấn luyện hơn 400 giờ, cho thấy tính khả thi và ổn định của mạng hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự triển khai hệ thống đầu tiên của nguyên tắc "huấn luyện tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu việc mạng huấn luyện phi tập trung lần đầu tiên được hiện thực hóa.