OpenLedger Kedalaman Laporan Penelitian: Membangun ekonomi agen cerdas yang didorong oleh data dan dapat dikombinasikan dengan model menggunakan OP Stack+EigenDA sebagai dasar
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang bisa dianalogikan dengan bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak bisa terpisahkan. Mirip dengan jalur evolusi infrastruktur di industri AI tradisional, bidang Crypto AI juga telah mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan yang luas "menggabungkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari persaingan sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan ukuran parameter yang sering mencapai 70B hingga 500B, dan biaya pelatihan sekali sering kali mencapai jutaan dolar. SLM (Specialized Language Model) sebagai paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, menggabungkan sejumlah kecil data spesialis berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi sama sekali dengan LLM melalui panggilan arsitektur Agent, sistem plugin untuk routing dinamis, hot-plug modul LoRA, dan RAG (generasi yang diperkuat oleh pencarian). Arsitektur ini mempertahankan kemampuan jangkauan luas LLM sekaligus meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang sangat fleksibel.
Nilai dan batas Crypto AI di tingkat model
Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti model bahasa besar (LLM), penyebab utamanya adalah
Hambatan teknologi terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Model Dasar sangat besar, saat ini hanya raksasa teknologi seperti Amerika Serikat dan China yang memiliki kemampuan tersebut.
Keterbatasan Ekosistem Sumber Terbuka: Meskipun model dasar arus utama seperti LLaMA, Mixtral telah sumber terbuka, tetapi kunci untuk mendorong terobosan model tetap terpusat pada lembaga penelitian dan sistem teknik tertutup, ruang partisipasi proyek di blockchain pada lapisan model inti sangat terbatas.
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperluas nilai melalui penyetelan model bahasa khusus (SLM), dan menggabungkan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka pinggiran" dari rantai industri AI, hal ini terwujud dalam dua arah inti:
Lapisan validasi yang dapat dipercaya: Meningkatkan keterlacakan dan ketahanan terhadap pemalsuan output AI dengan mencatat jalur generasi model, kontribusi data, dan penggunaan di blockchain.
Mekanisme insentif: Memanfaatkan Token asli, untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan pelaksanaan agen, membangun siklus positif pelatihan dan layanan model.
Analisis Kesesuaian Jenis Model AI dan Blockchain
Dari sini dapat dilihat bahwa titik terfokus yang dapat dilakukan oleh proyek Crypto AI model terutama terkonsentrasi pada penyempurnaan ringan SLM kecil, akses dan verifikasi data on-chain dengan arsitektur RAG, serta penerapan dan insentif model Edge secara lokal. Dengan menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah ke bawah ini, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat mencatat sumber kontribusi dari setiap data dan model secara jelas dan tidak dapat diubah, secara signifikan meningkatkan keandalan data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, ketika data atau model dipanggil, distribusi penghargaan secara otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat menilai kinerja model melalui pemungutan suara token, berpartisipasi dalam penyusunan dan iterasi aturan, serta menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu proyek blockchain AI yang fokus pada mekanisme insentif data dan model di pasar saat ini. Ini pertama kali mengajukan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat digabungkan, mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan imbalan di blockchain berdasarkan kontribusi nyata.
OpenLedger menyediakan rangkaian tertutup dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti yang meliputi:
Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan pelatihan dan penyebaran model kustom dengan LoRA yang disesuaikan berdasarkan LLM sumber terbuka;
OpenLoRA: mendukung koeksistensi ribuan model, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penyebaran;
PoA (Proof of Attribution): Mengukur kontribusi dan distribusi penghargaan melalui pencatatan panggilan di blockchain;
Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan diverifikasi melalui kolaborasi komunitas;
Platform Proposal Model (Model Proposal Platform): pasar model on-chain yang dapat digabungkan, dipanggil, dan dibayar.
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang didorong oleh data dan dapat dikombinasikan dengan model, mendorong on-chain dari rantai nilai AI.
Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah untuk eksekusi;
Settling di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
Kompatibel dengan EVM: Memudahkan pengembang untuk dengan cepat menerapkan dan memperluas berdasarkan Solidity;
EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, menjamin verifikasi data.
Dibandingkan dengan NEAR yang lebih fokus pada lapisan dasar dan mengutamakan kedaulatan data serta arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan blockchain khusus AI yang ditujukan untuk insentif data dan model. OpenLedger berkomitmen untuk mewujudkan pengembangan dan pemanggilan model pada blockchain yang dapat dilacak, dapat dikombinasikan, dan memiliki siklus nilai yang berkelanjutan. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan pengelolaan model ala HuggingFace, penagihan penggunaan ala Stripe, dan antarmuka yang dapat dikombinasikan di blockchain ala Infura, untuk mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
Model Pabrik 3.1, pabrik model tanpa kode
ModelFactory adalah platform penyesuaian model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyesuaian tradisional, ModelFactory menyediakan antarmuka grafis murni tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat menyesuaikan model berdasarkan dataset yang telah disetujui dan diperiksa di OpenLedger. Ini mewujudkan alur kerja terpadu untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti meliputi:
Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data secara otomatis terhubung ke antarmuka pelatihan model.
Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), mengonfigurasi hiperparameter melalui GUI.
Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau panggilan berbagi ekosistem.
Antarmuka verifikasi interaktif: Menyediakan antarmuka berbasis chat, memudahkan pengujian langsung kemampuan tanya jawab model.
RAG menghasilkan jejak: menjawab dengan kutipan sumber, meningkatkan kepercayaan dan kemampuan audit.
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi dan penerapan, serta pelacakan RAG, menciptakan platform layanan model yang terintegrasi, aman dan terkendali, interaksi waktu nyata, serta dapat menghasilkan pendapatan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Seri LLaMA: Ekosistem terluas, komunitas aktif, performa umum yang kuat, merupakan salah satu model dasar sumber terbuka yang paling utama saat ini.
Mistral: Arsitektur efisien, kinerja inferensi sangat baik, cocok untuk diterapkan dalam skenario yang fleksibel dan sumber daya terbatas.
Qwen: Diproduksi oleh Alibaba, berkinerja baik dalam tugas berbahasa Mandarin, kemampuan komprehensif yang kuat, cocok sebagai pilihan utama bagi pengembang domestik.
ChatGLM: Efek percakapan dalam bahasa Mandarin yang menonjol, cocok untuk layanan pelanggan spesifik dan skenario lokal.
Deepseek: Unggul dalam menghasilkan kode dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
Gemma: Model ringan yang diluncurkan oleh Google, memiliki struktur yang jelas, mudah untuk dipelajari dan dieksplorasi dengan cepat.
Falcon: Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi tingkat aktivitas komunitas telah berkurang.
BLOOM: Dukungan multibahasa cukup kuat, tetapi kinerja inferensi lemah, cocok untuk penelitian yang mencakup banyak bahasa.
GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk digunakan dalam penerapan nyata.
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang dibuat berdasarkan batasan realitas dari penerapan on-chain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak-hak kontributor data dan pengembang model, memiliki keunggulan ambang rendah, dapat direalisasikan dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:
Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi, distribusi, dan pendapatan model;
Untuk platform: membentuk ekosistem peredaran dan kombinasi aset model;
Untuk pengguna: Anda dapat menggabungkan model atau Agen seperti memanggil API.
3.2 OpenLoRA, asetisasi on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyetelan parameter yang efisien, yang mempelajari tugas baru dengan memasukkan "matriks peringkat rendah" ke dalam model besar yang sudah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakan mereka untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyetelan (fine-tuning). Strategi inti dari LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang dimasukkan.", yang efisien dalam parameter, pelatihan cepat, dan penerapan fleksibel, merupakan metode penyetelan utama yang paling cocok untuk penerapan dan kombinasi pemanggilan model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dibangun oleh OpenLedger yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya reutilisasi, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan tahap kunci lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah:
Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan dihosting di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori, menghemat sumber daya.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
12 Suka
Hadiah
12
8
Bagikan
Komentar
0/400
MissedAirdropBro
· 07-24 23:59
Ini lagi AI, sampai kapan ini akan berakhir?
Lihat AsliBalas0
blocksnark
· 07-24 15:44
Kapan kita bisa mendapatkan model AI besar secara gratis?
Lihat AsliBalas0
DaoGovernanceOfficer
· 07-23 12:04
*sigh* lagi satu makalah komposisi model yang kurang memiliki KPI yang jelas dan tokenomik... secara empiris ini tidak akan skala
Lihat AsliBalas0
PanicSeller
· 07-22 15:15
Gak paham, mungkin ini Rug Pull.
Lihat AsliBalas0
tokenomics_truther
· 07-22 14:56
Pecundang di industri
Lihat AsliBalas0
GasFeeThunder
· 07-22 14:53
biaya gas begitu tinggi masih berbicara tentang inovasi model
Lihat AsliBalas0
SchroedingerAirdrop
· 07-22 14:49
Ayo jangan terlalu berjuang, ya?
Lihat AsliBalas0
SadMoneyMeow
· 07-22 14:47
Data model masih hanya sebuah konsep yang diperdagangkan.
OpenLedger: Membangun infrastruktur ekonomi AI yang didorong oleh data dan dapat dikombinasikan modelnya
OpenLedger Kedalaman Laporan Penelitian: Membangun ekonomi agen cerdas yang didorong oleh data dan dapat dikombinasikan dengan model menggunakan OP Stack+EigenDA sebagai dasar
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang bisa dianalogikan dengan bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak bisa terpisahkan. Mirip dengan jalur evolusi infrastruktur di industri AI tradisional, bidang Crypto AI juga telah mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan yang luas "menggabungkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari persaingan sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan ukuran parameter yang sering mencapai 70B hingga 500B, dan biaya pelatihan sekali sering kali mencapai jutaan dolar. SLM (Specialized Language Model) sebagai paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, menggabungkan sejumlah kecil data spesialis berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi sama sekali dengan LLM melalui panggilan arsitektur Agent, sistem plugin untuk routing dinamis, hot-plug modul LoRA, dan RAG (generasi yang diperkuat oleh pencarian). Arsitektur ini mempertahankan kemampuan jangkauan luas LLM sekaligus meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang sangat fleksibel.
Nilai dan batas Crypto AI di tingkat model
Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti model bahasa besar (LLM), penyebab utamanya adalah
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperluas nilai melalui penyetelan model bahasa khusus (SLM), dan menggabungkan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka pinggiran" dari rantai industri AI, hal ini terwujud dalam dua arah inti:
Analisis Kesesuaian Jenis Model AI dan Blockchain
Dari sini dapat dilihat bahwa titik terfokus yang dapat dilakukan oleh proyek Crypto AI model terutama terkonsentrasi pada penyempurnaan ringan SLM kecil, akses dan verifikasi data on-chain dengan arsitektur RAG, serta penerapan dan insentif model Edge secara lokal. Dengan menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah ke bawah ini, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat mencatat sumber kontribusi dari setiap data dan model secara jelas dan tidak dapat diubah, secara signifikan meningkatkan keandalan data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, ketika data atau model dipanggil, distribusi penghargaan secara otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat menilai kinerja model melalui pemungutan suara token, berpartisipasi dalam penyusunan dan iterasi aturan, serta menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu proyek blockchain AI yang fokus pada mekanisme insentif data dan model di pasar saat ini. Ini pertama kali mengajukan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat digabungkan, mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan imbalan di blockchain berdasarkan kontribusi nyata.
OpenLedger menyediakan rangkaian tertutup dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti yang meliputi:
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang didorong oleh data dan dapat dikombinasikan dengan model, mendorong on-chain dari rantai nilai AI.
Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibandingkan dengan NEAR yang lebih fokus pada lapisan dasar dan mengutamakan kedaulatan data serta arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan blockchain khusus AI yang ditujukan untuk insentif data dan model. OpenLedger berkomitmen untuk mewujudkan pengembangan dan pemanggilan model pada blockchain yang dapat dilacak, dapat dikombinasikan, dan memiliki siklus nilai yang berkelanjutan. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan pengelolaan model ala HuggingFace, penagihan penggunaan ala Stripe, dan antarmuka yang dapat dikombinasikan di blockchain ala Infura, untuk mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
Model Pabrik 3.1, pabrik model tanpa kode
ModelFactory adalah platform penyesuaian model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyesuaian tradisional, ModelFactory menyediakan antarmuka grafis murni tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat menyesuaikan model berdasarkan dataset yang telah disetujui dan diperiksa di OpenLedger. Ini mewujudkan alur kerja terpadu untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti meliputi:
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi dan penerapan, serta pelacakan RAG, menciptakan platform layanan model yang terintegrasi, aman dan terkendali, interaksi waktu nyata, serta dapat menghasilkan pendapatan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang dibuat berdasarkan batasan realitas dari penerapan on-chain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak-hak kontributor data dan pengembang model, memiliki keunggulan ambang rendah, dapat direalisasikan dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:
3.2 OpenLoRA, asetisasi on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyetelan parameter yang efisien, yang mempelajari tugas baru dengan memasukkan "matriks peringkat rendah" ke dalam model besar yang sudah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakan mereka untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyetelan (fine-tuning). Strategi inti dari LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang dimasukkan.", yang efisien dalam parameter, pelatihan cepat, dan penerapan fleksibel, merupakan metode penyetelan utama yang paling cocok untuk penerapan dan kombinasi pemanggilan model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dibangun oleh OpenLedger yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya reutilisasi, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan tahap kunci lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah: