OpenLedger Глибина дослідження: на базі OP Stack + EigenDA, створити економіку агентів, що керується даними та є модульною.
Один. Вступ | Модельний шар Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі), енергії (обчислювальна потужність) - жоден з них не може бути відсутнім. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок був під контролем децентралізованих проектів GPU, які загалом підкреслювали логіку грубого зростання «боротьби за обчислювальну потужність». А з початком 2025 року увага галузі поступово зосереджується на моделях і даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та з цінністю для застосування середнього рівня.
Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) в основному залежать від великих наборів даних та складної розподіленої архітектури, розмір параметрів яких коливається від 70B до 500B, а вартість одного навчання часто досягає мільйонів доларів. А SLM (Спеціалізована мовна модель) є легким підходом до тонкої налаштування повторно використовуваної базової моделі, зазвичай заснованим на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, що поєднує невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, для швидкого створення експертних моделей, які мають знання в певних галузях, що значно знижує витрати на навчання та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через архітектуру Agent, динамічну маршрутизацію системи плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування за допомогою пошуку) тощо. Ця архітектура зберігає широку здатність LLM і водночас посилює професійні результати за рахунок модуля точного налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.
Crypto AI вартість і межі на рівні моделей
Проекти Crypto AI в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина в тому,
Технічний бар'єр надто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише такі технологічні гіганти, як США та Китай, мають відповідні можливості.
Обмеження відкритої екосистеми: хоча основні моделі, такі як LLaMA, Mixtral, вже відкриті, справжніми рушійними силами прориву моделей все ще залишаються наукові установи та закриті інженерні системи, а участь блокчейн-проектів на рівні основних моделей є обмеженою.
Однак, на базі відкритих моделей, проекти Crypto AI все ще можуть здійснювати розширення вартості шляхом тонкого налаштування спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейс» в індустрії ШІ, це проявляється в двох основних напрямках:
Достовірний верифікаційний шар: шляхом запису на ланцюзі моделі генерації, внесків даних та використання, підвищується відстежуваність та стійкість до підробок виходу AI.
Механізм стимулювання: за допомогою рідного Token, який використовується для стимулювання завантаження даних, виклику моделей, виконання агентів та інших дій, створення позитивного циклу навчання моделей та надання послуг.
Аналіз застосовності типів AI моделей та блокчейн
З цього видно, що можливі точки застосування моделей типу Crypto AI в основному зосереджені на легкій доопрацюванні малих SLM, інтеграції та верифікації даних на блокчейні в архітектурі RAG, а також на локальному розгортанні та стимулюванні моделей Edge. Поєднуючи перевірність блокчейну та токенну механіку, Crypto може надати унікальну цінність для цих сценаріїв моделей з середніми та низькими ресурсами, формуючи диференційовану цінність "інтерфейсного шару" AI.
Базуючись на даних та моделях, блокчейн AI ланцюг може чітко і незмінно реєструвати джерела внеску кожного даних і моделі, що значно підвищує довіру до даних і відстежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, автоматично запускається розподіл винагород при виклику даних або моделі, перетворюючи поведінку AI в вимірювальну, торгівельну токенізовану вартість, що створює стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей через голосування токенами, брати участь у розробці та ітерації правил, вдосконалюючи децентралізовану структуру управління.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на сучасному ринку, який зосереджений на механізмах стимулювання даних та моделей. Він першим запропонував концепцію «Payable AI», яка має на меті створити справедливе, прозоре та комбіноване середовище для роботи AI, що стимулює contributorів даних, розробників моделей та творців AI застосунків співпрацювати на одній платформі та отримувати прибуток на ланцюзі відповідно до їх фактичного внеску.
OpenLedger надає повний ланцюг з «надання даних» до «розгортання моделі» і до «виклику розподілу прибутку», його основні модулі включають:
Модельна фабрика: без програмування можна використовувати LoRA для тонкої настройки, навчання та розгортання кастомізованих моделей на основі відкритого LLM;
OpenLoRA: підтримка спільного існування тисячі моделей, динамічна загрузка на вимогу, значне зниження витрат на розгортання;
PoA (Proof of Attribution): реалізація вимірювання внеску та розподілу винагороди через виклики на ланцюгу;
Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, побудовані та верифіковані спільнотою;
Платформа моделей пропозицій (Model Proposal Platform): комбіноване, викликове, платіжне ринкове середовище моделей на блокчейні.
За допомогою вищезгаданих модулів OpenLedger створила "інфраструктуру економіки агентів", керовану даними та комбінованими моделями, що сприяє онлайнізації ціннісного ланцюга AI.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для побудови високопродуктивного, низькозатратного, перевіряємого середовища для даних і виконання контрактів для AI моделей.
Побудовано на OP Stack: на основі технологічного стеку Optimism, підтримує високу пропускну здатність та низькі витрати на виконання;
Розрахунок в основній мережі Ethereum: Забезпечення безпеки транзакцій і цілісності активів;
EVM сумісність: зручно для розробників швидко розгортати та розширювати на базі Solidity;
EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечує перевірність даних.
На відміну від NEAR, який є більш базовим, орієнтованим на суверенітет даних та архітектуру «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованих AI-ланцюгів, орієнтованих на стимулювання даних і моделей, прагнучи забезпечити розробку та виклик моделей у блокчейні з можливістю відстеження, комбінування та сталого ціннісного циклу. Це інфраструктура стимулювання моделей у світі Web3, що поєднує модель хостингу, подібну до HuggingFace, модель обліку використання, подібну до Stripe, та комбіновані інтерфейси на основі Infura, сприяючи реалізації «моделі як активу».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чистий графічний інтерфейс, не потребуючи командного рядка або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
Вибір моделі та налаштування: Підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
Легке налаштування: вбудований двигун LoRA / QLoRA, що демонструє прогрес навчання в реальному часі.
Оцінка та розгортання моделей: вбудовані інструменти оцінки, що підтримують експорт для розгортання або спільного використання в екосистемі.
Інтерфейс взаємодії для перевірки: надає чат-подібний інтерфейс, що полегшує безпосереднє тестування здатності моделі до відповідей на запитання.
RAG генерація трасування: відповіді з посиланнями на джерела, що підвищують довіру та можливість аудиту.
Система архітектури Model Factory складається з шести основних модулів, які охоплюють ідентифікацію, дані про права, налаштування моделей, оцінку впровадження та RAG трасування, створюючи безпечну, контрольовану, інтерактивну в реальному часі та стійку платформу для надання послуг моделей.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельний Фабрика наразі підтримує такі можливості великих мовних моделей:
Серія LLaMA: має найширшу екосистему, активну спільноту та потужну універсальну продуктивність, є однією з найпоширеніших відкритих базових моделей на сьогодні.
Mistral: Архітектура ефективна, продуктивність виводу відмінна, підходить для гнучкого розгортання в умовах обмежених ресурсів.
Qwen: продукт від Alibaba, відмінно виконує завдання китайською мовою, має високі комплексні можливості, підходить для вибору вітчизняних розробників.
ChatGLM: Відзначається видатними результатами в китайському діалозі, підходить для вузькоспеціалізованого обслуговування клієнтів та локалізованих сцен.
Deepseek: Відзначається перевагою у генерації коду та математичному міркуванні, підходить для інструментів допомоги в розумному розвитку.
Gemma: легка модель, випущена Google, з чіткою структурою, яка дозволяє швидко впроваджувати та експериментувати.
Falcon: Колись був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти зменшилася.
BLOOM: підтримка кількох мов достатньо сильна, але продуктивність виводу є слабкою, підходить для досліджень, що охоплюють мови.
GPT-2: класична рання модель, яка підходить лише для навчання та перевірки, не рекомендується для фактичного розгортання.
Хоча модельний комплекс OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а є «практичною перевагою», що базується на реальних обмеженнях розгортання в блокчейні (вартість інференсу, адаптація RAG, сумісність LoRA, середовище EVM).
Model Factory як безкодова інструментальна ланка, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних і розробників моделей, має низький бар'єр, можливість монетизації та комбінування, в порівнянні з традиційними інструментами розробки моделей:
Для розробників: забезпечити повний шлях до інкубації, розподілу та доходу моделей;
Для платформи: формування обігу модельних активів та комбінованої екосистеми;
Для користувачів: можна комбінувати моделі або агентів так само, як виклик API.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, токенізація оновлених моделей на блокчейні
LoRA (Low-Rank Adaptation) є ефективним методом налаштування параметрів, який дозволяє навчатися новим завданням шляхом вставки «низькорозмірної матриці» у попередньо навчену велику модель, без зміни параметрів оригінальної моделі, тим самим значно знижуючи витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як юридичні запитання, медичні консультації), потрібно провести налаштування (fine-tuning). Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише нові параметричні матриці, які були вставлені». Її параметри є ефективними, навчання швидким, а розгортання гнучким, що робить її найкращим варіантом для розгортання моделей Web3 і комбінованого виклику.
OpenLoRA є легковаговим фреймворком для інференції, створеним OpenLedger, який спеціально розроблений для розгортання кількох моделей та обміну ресурсами. Його основною метою є вирішення поширених проблем високих витрат, низької повторної використаності та марнування ресурсів GPU в розгортанні AI моделей, сприяючи реалізації "оплачуваного AI" (Payable AI).
Основні компоненти архітектури системи OpenLoRA, засновані на модульному дизайні, охоплюють такі ключові етапи, як зберігання моделей, виконання висновків, маршрутизація запитів тощо, що забезпечує ефективні та низькозатратні можливості для розгортання та виклику кількох моделей:
Модуль зберігання LoRA адаптерів (LoRA Adapters Storage): Налаштований LoRA адаптер розміщується на OpenLedger, що дозволяє завантажувати за потребою, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
Модельне хостинг та динамічний інтеграційний шар (Model
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
8
Репост
Поділіться
Прокоментувати
0/400
MissedAirdropBro
· 07-24 23:59
Знову AI, доки ж це триватиме?
Переглянути оригіналвідповісти на0
blocksnark
· 07-24 15:44
Коли можна безкоштовно користуватися великими моделями штучного інтелекту?
Переглянути оригіналвідповісти на0
DaoGovernanceOfficer
· 07-23 12:04
*с sigh* ще одна стаття моделі композиції без чітких kpis і токеноміки... з емпіричної точки зору, це не масштабуватиметься
Переглянути оригіналвідповісти на0
PanicSeller
· 07-22 15:15
Не можу зрозуміти, Шахрайство.
Переглянути оригіналвідповісти на0
tokenomics_truther
· 07-22 14:56
Галузеві невдахи
Переглянути оригіналвідповісти на0
GasFeeThunder
· 07-22 14:53
газ такий високий, про яку модельну інновацію можна говорити
OpenLedger: побудова даних, керованої, модульної інфраструктури економіки ШІ
OpenLedger Глибина дослідження: на базі OP Stack + EigenDA, створити економіку агентів, що керується даними та є модульною.
Один. Вступ | Модельний шар Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі), енергії (обчислювальна потужність) - жоден з них не може бути відсутнім. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок був під контролем децентралізованих проектів GPU, які загалом підкреслювали логіку грубого зростання «боротьби за обчислювальну потужність». А з початком 2025 року увага галузі поступово зосереджується на моделях і даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та з цінністю для застосування середнього рівня.
Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) в основному залежать від великих наборів даних та складної розподіленої архітектури, розмір параметрів яких коливається від 70B до 500B, а вартість одного навчання часто досягає мільйонів доларів. А SLM (Спеціалізована мовна модель) є легким підходом до тонкої налаштування повторно використовуваної базової моделі, зазвичай заснованим на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, що поєднує невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, для швидкого створення експертних моделей, які мають знання в певних галузях, що значно знижує витрати на навчання та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через архітектуру Agent, динамічну маршрутизацію системи плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування за допомогою пошуку) тощо. Ця архітектура зберігає широку здатність LLM і водночас посилює професійні результати за рахунок модуля точного налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.
Crypto AI вартість і межі на рівні моделей
Проекти Crypto AI в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина в тому,
Однак, на базі відкритих моделей, проекти Crypto AI все ще можуть здійснювати розширення вартості шляхом тонкого налаштування спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейс» в індустрії ШІ, це проявляється в двох основних напрямках:
Аналіз застосовності типів AI моделей та блокчейн
З цього видно, що можливі точки застосування моделей типу Crypto AI в основному зосереджені на легкій доопрацюванні малих SLM, інтеграції та верифікації даних на блокчейні в архітектурі RAG, а також на локальному розгортанні та стимулюванні моделей Edge. Поєднуючи перевірність блокчейну та токенну механіку, Crypto може надати унікальну цінність для цих сценаріїв моделей з середніми та низькими ресурсами, формуючи диференційовану цінність "інтерфейсного шару" AI.
Базуючись на даних та моделях, блокчейн AI ланцюг може чітко і незмінно реєструвати джерела внеску кожного даних і моделі, що значно підвищує довіру до даних і відстежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, автоматично запускається розподіл винагород при виклику даних або моделі, перетворюючи поведінку AI в вимірювальну, торгівельну токенізовану вартість, що створює стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей через голосування токенами, брати участь у розробці та ітерації правил, вдосконалюючи децентралізовану структуру управління.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на сучасному ринку, який зосереджений на механізмах стимулювання даних та моделей. Він першим запропонував концепцію «Payable AI», яка має на меті створити справедливе, прозоре та комбіноване середовище для роботи AI, що стимулює contributorів даних, розробників моделей та творців AI застосунків співпрацювати на одній платформі та отримувати прибуток на ланцюзі відповідно до їх фактичного внеску.
OpenLedger надає повний ланцюг з «надання даних» до «розгортання моделі» і до «виклику розподілу прибутку», його основні модулі включають:
За допомогою вищезгаданих модулів OpenLedger створила "інфраструктуру економіки агентів", керовану даними та комбінованими моделями, що сприяє онлайнізації ціннісного ланцюга AI.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для побудови високопродуктивного, низькозатратного, перевіряємого середовища для даних і виконання контрактів для AI моделей.
На відміну від NEAR, який є більш базовим, орієнтованим на суверенітет даних та архітектуру «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованих AI-ланцюгів, орієнтованих на стимулювання даних і моделей, прагнучи забезпечити розробку та виклик моделей у блокчейні з можливістю відстеження, комбінування та сталого ціннісного циклу. Це інфраструктура стимулювання моделей у світі Web3, що поєднує модель хостингу, подібну до HuggingFace, модель обліку використання, подібну до Stripe, та комбіновані інтерфейси на основі Infura, сприяючи реалізації «моделі як активу».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чистий графічний інтерфейс, не потребуючи командного рядка або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Система архітектури Model Factory складається з шести основних модулів, які охоплюють ідентифікацію, дані про права, налаштування моделей, оцінку впровадження та RAG трасування, створюючи безпечну, контрольовану, інтерактивну в реальному часі та стійку платформу для надання послуг моделей.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельний Фабрика наразі підтримує такі можливості великих мовних моделей:
Хоча модельний комплекс OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а є «практичною перевагою», що базується на реальних обмеженнях розгортання в блокчейні (вартість інференсу, адаптація RAG, сумісність LoRA, середовище EVM).
Model Factory як безкодова інструментальна ланка, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних і розробників моделей, має низький бар'єр, можливість монетизації та комбінування, в порівнянні з традиційними інструментами розробки моделей:
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, токенізація оновлених моделей на блокчейні
LoRA (Low-Rank Adaptation) є ефективним методом налаштування параметрів, який дозволяє навчатися новим завданням шляхом вставки «низькорозмірної матриці» у попередньо навчену велику модель, без зміни параметрів оригінальної моделі, тим самим значно знижуючи витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як юридичні запитання, медичні консультації), потрібно провести налаштування (fine-tuning). Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише нові параметричні матриці, які були вставлені». Її параметри є ефективними, навчання швидким, а розгортання гнучким, що робить її найкращим варіантом для розгортання моделей Web3 і комбінованого виклику.
OpenLoRA є легковаговим фреймворком для інференції, створеним OpenLedger, який спеціально розроблений для розгортання кількох моделей та обміну ресурсами. Його основною метою є вирішення поширених проблем високих витрат, низької повторної використаності та марнування ресурсів GPU в розгортанні AI моделей, сприяючи реалізації "оплачуваного AI" (Payable AI).
Основні компоненти архітектури системи OpenLoRA, засновані на модульному дизайні, охоплюють такі ключові етапи, як зберігання моделей, виконання висновків, маршрутизація запитів тощо, що забезпечує ефективні та низькозатратні можливості для розгортання та виклику кількох моделей: