Sự tiến hóa của mô hình đào tạo AI: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung
Trong chuỗi giá trị toàn diện của AI, việc huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với việc gọi nhẹ nhàng ở giai đoạn suy diễn, quy trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện phi tập trung mà bài viết này sẽ thảo luận.
Tập trung hóa đào tạo là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu năng cao địa phương, hoàn thành tất cả quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này giúp hiệu quả chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chống lỗi đạt tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, có ưu điểm là hiệu quả cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính để đào tạo mô hình lớn hiện nay, cốt lõi của nó là phân tách nhiệm vụ đào tạo mô hình và phân phối đến nhiều máy để thực hiện hợp tác, nhằm vượt qua các nút thắt về tính toán và lưu trữ của một máy. Mặc dù về mặt vật lý có đặc điểm "phân tán", nhưng tổng thể vẫn được các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, được điều phối thống nhất bởi nút chính cho các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: Mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ;
Đường ống song song: Thực hiện tuần tự theo từng giai đoạn, tăng cường thông lượng;
Tản mảng song song: Chia nhỏ tính toán ma trận, nâng cao độ mịn của song song.
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều khiển từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện nay hầu như tất cả các mô hình lớn chủ đạo đều hoàn thành việc huấn luyện theo cách này.
Phi tập trung đào tạo đại diện cho một con đường tương lai có tính cởi mở hơn và khả năng chống kiểm duyệt. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không có điều phối viên trung tâm, thường thông qua giao thức để điều phối phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Thiết bị không đồng nhất và khó phân chia: Khó khăn trong việc phối hợp thiết bị không đồng nhất, hiệu quả phân chia nhiệm vụ thấp;
Nút thắt hiệu quả truyền thông: giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ rệt;
Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không;
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung tâm, phân phối nhiệm vụ, cơ chế hoàn nguyên bất thường phức tạp.
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều cấp độ khác nhau, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích sự trung thực + kết quả chính xác" vẫn ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, với tư cách là hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại địa phương và tập trung hợp nhất các tham số mô hình, phù hợp với các tình huống chú trọng đến tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy và không có các đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc lòng tin và cơ chế truyền thông tương đối ôn hòa, thích hợp hơn để triển khai tạm thời trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Xét từ góc độ mô hình đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực kỳ cao hoặc độ khó hợp tác lớn, nó không tự nhiên phù hợp để hoàn thành hiệu quả giữa các nút khác nhau và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trên mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị hạn chế bởi sự tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì không có động lực tham gia bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của Phi tập trung đào tạo hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện rõ triển vọng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu kỳ liên quan đến sự đồng hành, nhiệm vụ đào tạo và chú thích dữ liệu crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, tính kết nối thấp và khả năng chịu đựng sức mạnh tính toán dị thường, rất phù hợp để thực hiện đào tạo hợp tác qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán, v.v.
Phi tập trung đào tạo các dự án kinh điển phân tích
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện nay; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đứng sau năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Người tiên phong mạng lưới hợp tác học tăng cường có thể xác minh được đường đi đào tạo
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích đầy đủ.
Một, Cấu trúc và giá trị của các mô-đun quan trọng trong giao thức Prime Intellect
Hai, Giải thích chi tiết về cơ chế huấn luyện Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường phi tập trung dạng tách rời
PRIME-RL là khuôn khổ mô hình hóa và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, phân tách cấu trúc quy trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành chu trình nhiệm vụ độc lập tại địa phương, và phối hợp với cơ chế xác minh và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lập lịch trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi có thể xác minh được do Prime Intellect đề xuất, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng nề như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành việc xác minh cấu trúc nhẹ thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ. Đây là lần đầu tiên hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể xác minh, là đổi mới then chốt để thực hiện phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp lộ trình khả thi cho việc xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và phát tán trọng số không đồng bộ
SHARDCAST là giao thức phát tán và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế bất đồng bộ, băng thông hạn chế và trạng thái nút đa dạng. Nó kết hợp cơ chế phát tán gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect thực hiện độc lập và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để đối mặt với những thách thức phổ biến trong đào tạo phi tập trung như băng thông hạn chế, thiết bị dị thể và độ không ổn định của các nút. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ phụ thuộc vào các nút láng giềng cục bộ để hoàn thành việc đào tạo hợp tác mô hình. Kết hợp với cập nhật không đồng bộ và cơ chế phục hồi điểm ngắt, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các điểm nghẽn thích ứng của thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng lưới băng thông thấp. PCCL hỗ trợ topo thưa, nén độ dốc, đồng bộ độ chính xác thấp và khôi phục từ điểm dừng, có thể chạy trên GPU tiêu dùng và nút không ổn định, là thành phần cơ bản hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó đã nâng cao đáng kể khả năng dung nạp băng thông của mạng đào tạo và tính tương thích của thiết bị, tạo điều kiện cho việc xây dựng một mạng lưới đào tạo hợp tác thực sự mở, không cần tin cậy, một cách thông suốt.
Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần giấy phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận được phần thưởng dựa trên những đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: xác định môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
Nút huấn luyện: thực hiện huấn luyện cục bộ, gửi cập nhật trọng số và quỹ đạo quan sát
Nút xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia vào việc tính toán phần thưởng và tổng hợp chính sách.
Quy trình cốt lõi của giao thức bao gồm việc phát hành nhiệm vụ, đào tạo nút, xác minh đường đi, tổng hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
Bốn, INTELLECT-2: Ra mắt mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung, không cần tin cậy và bất đồng bộ, với quy mô tham số lên đến 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU phân tán trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự hiện thực hóa đầu tiên của mô hình "đào tạo tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu một bước tiến quan trọng trong việc thực hiện mạng lưới đào tạo phi tập trung.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 thích
Phần thưởng
10
9
Chia sẻ
Bình luận
0/400
RuntimeError
· 07-28 16:20
bull oh ai cũng phải Phi tập trung rồi
Xem bản gốcTrả lời0
UnluckyMiner
· 07-28 02:28
Ai quá căng thẳng, Khai thác cũng khó kiếm tiền.
Xem bản gốcTrả lời0
SolidityStruggler
· 07-28 02:26
Ôi trời, AI sẽ trở thành mã nguồn mở rồi, bull!
Xem bản gốcTrả lời0
DegenApeSurfer
· 07-27 17:42
Khả năng tính toán đắt như vậy, làm liên bang là đúng.
Xem bản gốcTrả lời0
TokenTaxonomist
· 07-27 00:33
hmm... nói một cách thống kê, đào tạo tập trung là một ngõ cụt phân loại trong cây tiến hóa AI. để tôi lấy ra ma trận đánh giá rủi ro của mình...
Xem bản gốcTrả lời0
ContractFreelancer
· 07-27 00:30
Tsk tsk, lại sắp phải đốt card đồ họa rồi.
Xem bản gốcTrả lời0
just_another_wallet
· 07-27 00:29
Đào tạo tốn kém như vậy chủ yếu vẫn là trò lừa bịp
Xem bản gốcTrả lời0
MoonMathMagic
· 07-27 00:24
Điều đó tốn nhiều tiền như vậy, ai sẽ bỏ tiền ra?
Xem bản gốcTrả lời0
AirdropCollector
· 07-27 00:17
Tất cả đều tập trung, cuối cùng sẽ phải thay đổi, vốn dĩ nên phân tán.
Cách mạng trong chế độ đào tạo AI: Sự tiến hóa công nghệ từ Phi tập trung đến Phi tập trung
Sự tiến hóa của mô hình đào tạo AI: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác phi tập trung
Trong chuỗi giá trị toàn diện của AI, việc huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với việc gọi nhẹ nhàng ở giai đoạn suy diễn, quy trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện phi tập trung mà bài viết này sẽ thảo luận.
Tập trung hóa đào tạo là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu năng cao địa phương, hoàn thành tất cả quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này giúp hiệu quả chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chống lỗi đạt tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, có ưu điểm là hiệu quả cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính để đào tạo mô hình lớn hiện nay, cốt lõi của nó là phân tách nhiệm vụ đào tạo mô hình và phân phối đến nhiều máy để thực hiện hợp tác, nhằm vượt qua các nút thắt về tính toán và lưu trữ của một máy. Mặc dù về mặt vật lý có đặc điểm "phân tán", nhưng tổng thể vẫn được các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, được điều phối thống nhất bởi nút chính cho các nhiệm vụ con. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều khiển từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện nay hầu như tất cả các mô hình lớn chủ đạo đều hoàn thành việc huấn luyện theo cách này.
Phi tập trung đào tạo đại diện cho một con đường tương lai có tính cởi mở hơn và khả năng chống kiểm duyệt. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau phối hợp hoàn thành nhiệm vụ đào tạo mà không có điều phối viên trung tâm, thường thông qua giao thức để điều phối phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều cấp độ khác nhau, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích sự trung thực + kết quả chính xác" vẫn ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang, với tư cách là hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại địa phương và tập trung hợp nhất các tham số mô hình, phù hợp với các tình huống chú trọng đến tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy và không có các đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc lòng tin và cơ chế truyền thông tương đối ôn hòa, thích hợp hơn để triển khai tạm thời trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Xét từ góc độ mô hình đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực kỳ cao hoặc độ khó hợp tác lớn, nó không tự nhiên phù hợp để hoàn thành hiệu quả giữa các nút khác nhau và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trên mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị hạn chế bởi sự tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì không có động lực tham gia bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của Phi tập trung đào tạo hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện rõ triển vọng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu kỳ liên quan đến sự đồng hành, nhiệm vụ đào tạo và chú thích dữ liệu crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, tính kết nối thấp và khả năng chịu đựng sức mạnh tính toán dị thường, rất phù hợp để thực hiện đào tạo hợp tác qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán, v.v.
Phi tập trung đào tạo các dự án kinh điển phân tích
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện nay; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đứng sau năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect: Người tiên phong mạng lưới hợp tác học tăng cường có thể xác minh được đường đi đào tạo
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect mong muốn thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích đầy đủ.
Một, Cấu trúc và giá trị của các mô-đun quan trọng trong giao thức Prime Intellect
Hai, Giải thích chi tiết về cơ chế huấn luyện Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường phi tập trung dạng tách rời
PRIME-RL là khuôn khổ mô hình hóa và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, phân tách cấu trúc quy trình đào tạo, suy diễn và tải trọng, cho phép mỗi nút đào tạo hoàn thành chu trình nhiệm vụ độc lập tại địa phương, và phối hợp với cơ chế xác minh và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lập lịch trung tâm, vừa giảm độ phức tạp của hệ thống, vừa tạo nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi có thể xác minh được do Prime Intellect đề xuất, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng nề như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành việc xác minh cấu trúc nhẹ thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ. Đây là lần đầu tiên hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể xác minh, là đổi mới then chốt để thực hiện phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp lộ trình khả thi cho việc xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và phát tán trọng số không đồng bộ
SHARDCAST là giao thức phát tán và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế bất đồng bộ, băng thông hạn chế và trạng thái nút đa dạng. Nó kết hợp cơ chế phát tán gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect thực hiện độc lập và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để đối mặt với những thách thức phổ biến trong đào tạo phi tập trung như băng thông hạn chế, thiết bị dị thể và độ không ổn định của các nút. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ phụ thuộc vào các nút láng giềng cục bộ để hoàn thành việc đào tạo hợp tác mô hình. Kết hợp với cập nhật không đồng bộ và cơ chế phục hồi điểm ngắt, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các điểm nghẽn thích ứng của thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng lưới băng thông thấp. PCCL hỗ trợ topo thưa, nén độ dốc, đồng bộ độ chính xác thấp và khôi phục từ điểm dừng, có thể chạy trên GPU tiêu dùng và nút không ổn định, là thành phần cơ bản hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó đã nâng cao đáng kể khả năng dung nạp băng thông của mạng đào tạo và tính tương thích của thiết bị, tạo điều kiện cho việc xây dựng một mạng lưới đào tạo hợp tác thực sự mở, không cần tin cậy, một cách thông suốt.
Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần giấy phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận được phần thưởng dựa trên những đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm việc phát hành nhiệm vụ, đào tạo nút, xác minh đường đi, tổng hợp trọng số và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".
Bốn, INTELLECT-2: Ra mắt mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung, không cần tin cậy và bất đồng bộ, với quy mô tham số lên đến 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU phân tán trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự hiện thực hóa đầu tiên của mô hình "đào tạo tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu một bước tiến quan trọng trong việc thực hiện mạng lưới đào tạo phi tập trung.