تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
المقدمة | الانتقال في طبقة نموذج Crypto AI
تعتبر البيانات والنماذج وقدرة الحساب العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، على غرار الوقود (البيانات) والمحرك (النموذج) والطاقة (قدرة الحساب) التي لا يمكن الاستغناء عنها. مثل مسار تطور بنية تحتية الصناعة التقليدية للذكاء الاصطناعي، شهد مجال الذكاء الاصطناعي في عالم التشفير أيضًا مراحل مشابهة. في أوائل عام 2024، كانت السوق تهيمن عليها مشاريع GPU اللامركزية، التي كانت تؤكد على منطق النمو غير الدقيق "تركيز القدرة الحسابية". ومع دخول عام 2025، بدأت النقاط الرئيسية في الصناعة بالتحول تدريجياً نحو مستوى النماذج والبيانات، مما يدل على أن الذكاء الاصطناعي في عالم التشفير ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية.
النماذج العامة الكبيرة (LLM) مقابل النماذج المتخصصة (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يتراوح حجم المعلمات من 70B إلى 500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى عدة ملايين من الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) نموذجًا خفيفًا لتهيئة قابلة لإعادة الاستخدام، وغالبًا ما تعتمد على نماذج مفتوحة المصدر، مع دمج كمية صغيرة من البيانات الاحترافية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء ذات معرفة محددة في مجال معين بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والحواجز التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال استدعاء بنية الوكيل، ونظام المكونات الإضافية للتوجيه الديناميكي، والموصلات القابلة للتوصيل LoRA، وRAG (التوليد المعزز بالاسترجاع). تحافظ هذه البنية على قدرة LLM الواسعة مع تعزيز الأداء المهني من خلال وحدات التعديل الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
قيمة وحدود الذكاء الاصطناعي للعملات المشفرة في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب في جوهرها تعزيز القدرات الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي هو
عائق تقني مرتفع للغاية: إن حجم البيانات والموارد الحاسوبية والقدرات الهندسية المطلوبة لتدريب نموذج Foundation هائلة للغاية، و حالياً لا تمتلك القدرة المناسبة سوى عمالقة التكنولوجيا مثل الولايات المتحدة والصين.
قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية الرئيسية قد تم فتح مصدرها، إلا أن المفتاح الحقيقي لدفع النموذج نحو التقدم لا يزال مركزًا في المؤسسات البحثية وأنظمة الهندسة المغلقة، مما يحد من مساحة المشاركة في مشاريع السلسلة على مستوى النموذج الأساسي.
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة ممتدة من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج الأساس مفتوحة المصدر، بالاقتران مع قابلية التحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، يتم تجسيدها في اتجاهين رئيسيين:
طبقة التحقق الموثوق: من خلال تسجيل مسار توليد النموذج، ومساهمات البيانات، واستخدامها على السلسلة، يتم تعزيز قابلية التتبع ومقاومة التلاعب في مخرجات الذكاء الاصطناعي.
آلية التحفيز: من خلال استخدام التوكن الأصلي، لتحفيز سلوكيات مثل تحميل البيانات، استدعاء النماذج، وتنفيذ العوامل (Agent)، لبناء حلقة إيجابية لتدريب النموذج والخدمات.
تحليل ملاءمة أنواع نماذج الذكاء الاصطناعي وتطبيقها على البلوكشين
من هنا يمكننا أن نرى أن النقاط القابلة للتطبيق لمشاريع Crypto AI من فئة النماذج تتركز بشكل رئيسي على تحسين خفة SLM الصغيرة، والوصول والتحقق من البيانات على السلسلة في هيكل RAG، وأيضًا نشر وتحفيز نموذج Edge محليًا. بالجمع بين القابلية للتحقق من blockchain وآلية الرموز، يمكن لـ Crypto أن تقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة مميزة لـ "طبقة واجهة" AI.
سلسلة بلوكشين AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وبدون تغيير مصدر مساهمة كل بيانات ونموذج، مما يعزز بشكل ملحوظ مصداقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيزي مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا من خلال التصويت بالرموز تقييم أداء النموذج، والمشاركة في وضع القواعد والتكرار، مما يحسن هيكل الحكم اللامركزي.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
٢. نظرة عامة على المشروع | رؤية OpenLedger لسلسلة الذكاء الاصطناعي
OpenLedger هو واحد من المشاريع القليلة في سوق blockchain AI التي تركز على آليات تحفيز البيانات والنماذج. لقد قدمت مفهوم "Payable AI" لأول مرة، وتهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز مقدمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
OpenLedger تقدم سلسلة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
مصنع النموذج: بدون الحاجة إلى البرمجة، يمكن استخدام LoRA لتعديل وتدريب ونشر نماذج مخصصة استنادًا إلى LLM مفتوح المصدر؛
OpenLoRA: يدعم التعايش بين آلاف النماذج، تحميل ديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): تحقيق قياس المساهمة وتوزيع المكافآت من خلال تسجيل الاستدعاءات على السلسلة؛
Datanets: شبكة بيانات هيكلية موجهة نحو السيناريوهات العمودية، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة يمكن دمجه، واستدعاؤه، ودفع تكلفته.
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتجميع، مما يعزز نقل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تكنولوجيا blockchain، تستخدم OpenLedger OP Stack + EigenDA كأساس، مما يوفر بيئة تشغيل للبيانات والعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج AI.
مبني على OP Stack: يعتمد على تقنية Optimism، يدعم التنفيذ عالي الإنتاجية ومنخفض التكلفة؛
تسوية على الشبكة الرئيسية لإيثريوم: ضمان أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع التطبيقات بسرعة على أساس Solidity؛
EigenDA يوفر دعم توفر البيانات: يقلل بشكل كبير من تكاليف التخزين، ويضمن قابلية التحقق من البيانات.
بالمقارنة مع سلاسل الذكاء الاصطناعي العامة مثل NEAR التي تركز بشكل أكبر على الطبقة الأساسية وتعزز سيادة البيانات مع بنية "وكلاء الذكاء الاصطناعي على BOS"، تركز OpenLedger بشكل أكبر على بناء سلسلة مخصصة للذكاء الاصطناعي موجهة نحو تحفيز البيانات والنماذج، وتهدف إلى جعل تطوير النماذج واستدعائها قابلاً للتتبع، وقابلًا للتجميع، ومستدامًا على السلسلة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، حيث تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات التركيب على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
ثلاثة، المكونات الأساسية لـ OpenLedger وهيكلها التكنولوجي
3.1 نموذج المصنع ،无需代码 نموذج المصنع
ModelFactory هو منصة لتعديل نموذج اللغة الكبير (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل واجهة برمجة التطبيقات. يمكن للمستخدمين تعديل النموذج بناءً على مجموعات البيانات التي تم الانتهاء من تفويضها ومراجعتها على OpenLedger. وقد تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، ونشره، وتشتمل العمليات الأساسية على:
التحكم في الوصول إلى البيانات: يرسل المستخدم طلب بيانات، يقوم المزود بمراجعته والموافقة عليه، يتم توصيل البيانات تلقائيًا بواجهة تدريب النموذج.
اختيار النموذج وتكوينه: يدعم LLM الشائعة، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
تعديل خفيف الوزن: محرك LoRA / QLoRA المدمج، عرض تقدم التدريب في الوقت الحقيقي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو استدعاء المشاركة البيئية.
واجهة تحقق تفاعلية: توفر واجهة دردشة، مما يسهل اختبار قدرة النموذج على الإجابة.
إنشاء تتبع RAG: يقدم إجابات مع اقتباسات المصدر، مما يعزز الثقة وقابلية التدقيق.
يتضمن هيكل نظام Model Factory ستة وحدات، تشمل المصادقة على الهوية، وصلاحيات البيانات، وضبط النماذج، وتقييم النشر و RAG، مما يخلق منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، تفاعلية في الوقت الحقيقي، وقابلة للاستدامة لتحقيق العائد.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory كالتالي:
سلسلة LLaMA: الأكثر تنوعًا في النظام البيئي، مجتمع نشط، أداء عام قوي، تُعتبر واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
ميسترال: هيكل فعال، أداء استدلال ممتاز، مناسب للنشر المرن والسيناريوهات ذات الموارد المحدودة.
Qwen: أداء المهام باللغة الصينية ممتاز، والقدرة الشاملة قوية، مناسبة لتكون الخيار الأول للمطورين المحليين.
ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمة العملاء المتخصصة والمشاهد المحلية.
Deepseek: يتميز بأداء متفوق في توليد الشيفرات والاستدلال الرياضي، ويعتبر مناسبًا لأدوات المساعدة في التطوير الذكي.
Gemma: نموذج خفيف الوزن أطلقته Google، مع هيكل واضح، سهل الاستخدام والتجربة السريعة.
فالكون: كان معيار الأداء سابقًا، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
BLOOM: دعم لغات متعددة قوي، لكن أداء الاستدلال ضعيف، مناسب للأبحاث التي تغطي اللغات.
GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، لا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل تم إعدادها بناءً على القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM) من خلال تكوين "الأولوية العملية".
تعتبر Model Factory كأداة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات دخول منخفضة، وقابلية للتسييل والتجميع، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل لنموذج الحضانة والتوزيع والدخل؛
بالنسبة للمنصة: تشكيل تدفق أصول النموذج وبيئة التركيب؛
للمستخدمين: يمكن دمج النماذج أو الوكلاء كما هو الحال في استدعاء واجهة برمجة التطبيقات.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F49CFA5EA73FC0018250D04193B34B60)
3.2 OpenLoRA ، الأصول على السلسلة لنموذج الضبط
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، حيث تتعلم المهام الجديدة من خلال إدخال "مصفوفات منخفضة الرتبة" في نموذج كبير تم تدريبه مسبقًا، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام معينة، يلزم إجراء ضبط. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفة المعلمات الجديدة المدخلة فقط."، حيث تكون معلماتها فعالة من حيث التكلفة، والتدريب سريع، والنشر مرن، مما يجعلها الطريقة الأكثر ملاءمة لنشر نماذج Web3 واستدعائها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم تصميمه خصيصًا لنشر النماذج المتعددة ومشاركة الموارد من قبل OpenLedger. الهدف الرئيسي منه هو معالجة المشكلات الشائعة المرتبطة بنشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إمكانية إعادة الاستخدام، وهدر موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
المكونات الأساسية لهندسة نظام OpenLoRA، والتي تعتمد على تصميم معياري، تغطي تخزين النماذج، تنفيذ الاستنتاج، توجيه الطلبات وغيرها من الجوانب الرئيسية، لتحقيق نشر واستدعاء متعدد النماذج بكفاءة وبتكلفة منخفضة:
وحدة تخزين LoRA Adapter: يتم استضافة LoRA adapter المُعدّل على OpenLedger، مما يتيح تحميله حسب الحاجة، وتجنب تحميل جميع النماذج مسبقًا في الذاكرة، مما يوفر الموارد.
استضافة النموذج وطبقة الدمج الديناميكي: جميع النماذج المعدلة تشترك في النموذج الأساسي الكبير، أثناء الاستدلال
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 14
أعجبني
14
5
مشاركة
تعليق
0/400
RadioShackKnight
· 08-06 11:38
مرة أخرى op و da، صداع
شاهد النسخة الأصليةرد0
LiquidatedTwice
· 08-05 11:07
أخيرًا انتظرت فرصة الاستفادة من الذكاء الاصطناعي
شاهد النسخة الأصليةرد0
ForkItAll
· 08-05 11:05
ياو منظور المستقبل الغريب
شاهد النسخة الأصليةرد0
BridgeNomad
· 08-05 10:59
لقد كانت موجودة منذ ثقب الدودة... بصراحة، يبدو أن eigen أقل خطورة من إعدادات التجميع المعتادة.
شاهد النسخة الأصليةرد0
CryptoSourGrape
· 08-05 10:55
إذا لم أنم العام الماضي، كنت أخشى أنني كنت سأشتري بالفعل في السوق الصاعدة الآن، يا للأسف.
OpenLedger تستخدم OP Stack + EigenDA لبناء اقتصاد ذكي مدفوع بالبيانات
تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
المقدمة | الانتقال في طبقة نموذج Crypto AI
تعتبر البيانات والنماذج وقدرة الحساب العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، على غرار الوقود (البيانات) والمحرك (النموذج) والطاقة (قدرة الحساب) التي لا يمكن الاستغناء عنها. مثل مسار تطور بنية تحتية الصناعة التقليدية للذكاء الاصطناعي، شهد مجال الذكاء الاصطناعي في عالم التشفير أيضًا مراحل مشابهة. في أوائل عام 2024، كانت السوق تهيمن عليها مشاريع GPU اللامركزية، التي كانت تؤكد على منطق النمو غير الدقيق "تركيز القدرة الحسابية". ومع دخول عام 2025، بدأت النقاط الرئيسية في الصناعة بالتحول تدريجياً نحو مستوى النماذج والبيانات، مما يدل على أن الذكاء الاصطناعي في عالم التشفير ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية.
النماذج العامة الكبيرة (LLM) مقابل النماذج المتخصصة (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يتراوح حجم المعلمات من 70B إلى 500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى عدة ملايين من الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) نموذجًا خفيفًا لتهيئة قابلة لإعادة الاستخدام، وغالبًا ما تعتمد على نماذج مفتوحة المصدر، مع دمج كمية صغيرة من البيانات الاحترافية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء ذات معرفة محددة في مجال معين بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والحواجز التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال استدعاء بنية الوكيل، ونظام المكونات الإضافية للتوجيه الديناميكي، والموصلات القابلة للتوصيل LoRA، وRAG (التوليد المعزز بالاسترجاع). تحافظ هذه البنية على قدرة LLM الواسعة مع تعزيز الأداء المهني من خلال وحدات التعديل الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
قيمة وحدود الذكاء الاصطناعي للعملات المشفرة في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب في جوهرها تعزيز القدرات الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي هو
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة ممتدة من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج الأساس مفتوحة المصدر، بالاقتران مع قابلية التحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، يتم تجسيدها في اتجاهين رئيسيين:
تحليل ملاءمة أنواع نماذج الذكاء الاصطناعي وتطبيقها على البلوكشين
من هنا يمكننا أن نرى أن النقاط القابلة للتطبيق لمشاريع Crypto AI من فئة النماذج تتركز بشكل رئيسي على تحسين خفة SLM الصغيرة، والوصول والتحقق من البيانات على السلسلة في هيكل RAG، وأيضًا نشر وتحفيز نموذج Edge محليًا. بالجمع بين القابلية للتحقق من blockchain وآلية الرموز، يمكن لـ Crypto أن تقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة مميزة لـ "طبقة واجهة" AI.
سلسلة بلوكشين AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وبدون تغيير مصدر مساهمة كل بيانات ونموذج، مما يعزز بشكل ملحوظ مصداقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيزي مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا من خلال التصويت بالرموز تقييم أداء النموذج، والمشاركة في وضع القواعد والتكرار، مما يحسن هيكل الحكم اللامركزي.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
٢. نظرة عامة على المشروع | رؤية OpenLedger لسلسلة الذكاء الاصطناعي
OpenLedger هو واحد من المشاريع القليلة في سوق blockchain AI التي تركز على آليات تحفيز البيانات والنماذج. لقد قدمت مفهوم "Payable AI" لأول مرة، وتهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز مقدمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
OpenLedger تقدم سلسلة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتجميع، مما يعزز نقل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تكنولوجيا blockchain، تستخدم OpenLedger OP Stack + EigenDA كأساس، مما يوفر بيئة تشغيل للبيانات والعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج AI.
بالمقارنة مع سلاسل الذكاء الاصطناعي العامة مثل NEAR التي تركز بشكل أكبر على الطبقة الأساسية وتعزز سيادة البيانات مع بنية "وكلاء الذكاء الاصطناعي على BOS"، تركز OpenLedger بشكل أكبر على بناء سلسلة مخصصة للذكاء الاصطناعي موجهة نحو تحفيز البيانات والنماذج، وتهدف إلى جعل تطوير النماذج واستدعائها قابلاً للتتبع، وقابلًا للتجميع، ومستدامًا على السلسلة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، حيث تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات التركيب على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
ثلاثة، المكونات الأساسية لـ OpenLedger وهيكلها التكنولوجي
3.1 نموذج المصنع ،无需代码 نموذج المصنع
ModelFactory هو منصة لتعديل نموذج اللغة الكبير (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل واجهة برمجة التطبيقات. يمكن للمستخدمين تعديل النموذج بناءً على مجموعات البيانات التي تم الانتهاء من تفويضها ومراجعتها على OpenLedger. وقد تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، ونشره، وتشتمل العمليات الأساسية على:
يتضمن هيكل نظام Model Factory ستة وحدات، تشمل المصادقة على الهوية، وصلاحيات البيانات، وضبط النماذج، وتقييم النشر و RAG، مما يخلق منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، تفاعلية في الوقت الحقيقي، وقابلة للاستدامة لتحقيق العائد.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory كالتالي:
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل تم إعدادها بناءً على القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM) من خلال تكوين "الأولوية العملية".
تعتبر Model Factory كأداة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات دخول منخفضة، وقابلية للتسييل والتجميع، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F49CFA5EA73FC0018250D04193B34B60)
3.2 OpenLoRA ، الأصول على السلسلة لنموذج الضبط
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، حيث تتعلم المهام الجديدة من خلال إدخال "مصفوفات منخفضة الرتبة" في نموذج كبير تم تدريبه مسبقًا، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام معينة، يلزم إجراء ضبط. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفة المعلمات الجديدة المدخلة فقط."، حيث تكون معلماتها فعالة من حيث التكلفة، والتدريب سريع، والنشر مرن، مما يجعلها الطريقة الأكثر ملاءمة لنشر نماذج Web3 واستدعائها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم تصميمه خصيصًا لنشر النماذج المتعددة ومشاركة الموارد من قبل OpenLedger. الهدف الرئيسي منه هو معالجة المشكلات الشائعة المرتبطة بنشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إمكانية إعادة الاستخدام، وهدر موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
المكونات الأساسية لهندسة نظام OpenLoRA، والتي تعتمد على تصميم معياري، تغطي تخزين النماذج، تنفيذ الاستنتاج، توجيه الطلبات وغيرها من الجوانب الرئيسية، لتحقيق نشر واستدعاء متعدد النماذج بكفاءة وبتكلفة منخفضة: