في السنوات الأخيرة، تواصل شركات التكنولوجيا الكبرى مثل OpenAI وAnthropic وGoogle وMeta دفع تطور نماذج اللغة الكبيرة (LLM) بسرعة. تظهر LLM قدرات غير مسبوقة في جميع المجالات، مما يعزز الخيال البشري بشكل كبير، وحتى في بعض السيناريوهات، تظهر إمكانية استبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات محصور بقوة في يد عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رؤوس الأموال الكبيرة والتحكم في موارد الحوسبة العالية التكلفة، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل من الصعب على الغالبية العظمى من المطورين وفرق الابتكار التنافس معها.
في البداية السريعة لتطور الذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الانجازات والراحة التي توفرها التقنية، في حين أن الانتباه لقضايا جوهرية مثل حماية الخصوصية، والشفافية، والأمان يكون أقل نسبيًا. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على الصحة العامة لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستزداد بشكل ملحوظ الجدل حول ما إذا كان الذكاء الاصطناعي "يتجه نحو الخير" أو "يتجه نحو الشر"، بينما غالبًا ما تفتقر الشركات الكبرى المركزية، المدفوعة بغرائز الربح، إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تتيح تقنية blockchain، بفضل خصائصها المتمثلة في اللامركزية والشفافية ومقاومة الرقابة، إمكانية جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. حالياً، ظهرت العديد من تطبيقات "Web3 AI" على سلاسل الكتل الرئيسية مثل Solana وBase. ومع ذلك، من خلال التحليل المتعمق، يمكن ملاحظة أن هذه المشاريع لا تزال تعاني من العديد من المشكلات: من ناحية، مستوى اللامركزية محدود، حيث لا تزال العناصر الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، كما أن خاصية الميمز متضخمة، مما يجعل من الصعب دعم نظام بيئي مفتوح حقيقي؛ من ناحية أخرى، بالمقارنة مع منتجات الذكاء الاصطناعي في عالم Web2، لا يزال الذكاء الاصطناعي داخل السلسلة محدوداً من حيث قدرة النموذج، واستخدام البيانات، ومجالات التطبيق، مما يستدعي تحسين العمق والاتساع في الابتكار.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، وتمكين البلوكتشين من استيعاب تطبيقات الذكاء الاصطناعي على نطاق واسع بشكل آمن وفعال وديمقراطي، ومنافسة الحلول المركزية من حيث الأداء، نحتاج إلى تصميم بلوكتشين من الطبقة الأولى مخصصة للذكاء الاصطناعي. سيوفر هذا أساسًا قويًا للابتكار المفتوح في الذكاء الاصطناعي، والحكم الديمقراطي، وأمان البيانات، مما يدفع نحو ازدهار النظام البيئي للذكاء الاصطناعي اللامركزي.
الخصائص الأساسية لـ AI Layer 1
AI Layer 1 كأحد سلاسل الكتل المصممة خصيصًا لتطبيقات الذكاء الاصطناعي، فإن هيكلها الأساسي وتصميم أدائها يركزان بشكل وثيق على متطلبات مهام الذكاء الاصطناعي، بهدف دعم التنمية المستدامة وازدهار النظام البيئي للذكاء الاصطناعي داخل السلسلة بكفاءة. بشكل محدد، يجب أن تتمتع AI Layer 1 بالقدرات الأساسية التالية:
آلية الحوافز الفعالة واللامركزية إن جوهر AI Layer 1 يكمن في بناء شبكة مشتركة مفتوحة من الموارد مثل القوة الحاسوبية والتخزين. على عكس العقد التقليدية في داخل السلسلة التي تركز بشكل أساسي على تسجيل الدفاتر، تحتاج العقد في AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يجب عليها توفير القوة الحاسوبية، وإكمال تدريب ونمذجة الذكاء الاصطناعي، بالإضافة إلى المساهمة في التخزين والبيانات وعرض النطاق الترددي، مما يكسر احتكار الهيئات المركزية في البنية التحتية للذكاء الاصطناعي. وهذا يفرض متطلبات أعلى على إجماع الطبقات السفلية وآلية الحوافز: يجب أن تكون AI Layer 1 قادرة على تقييم وتحفيز والتحقق بدقة من المساهمات الفعلية للعقد في مهام مثل استنتاج وتدريب الذكاء الاصطناعي، لتحقيق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتخفيف التكاليف الإجمالية للقوة الحاسوبية.
الأداء العالي الممتاز وقدرة دعم المهام المتنوعة
تتطلب مهام الذكاء الاصطناعي، وخاصة تدريب واستنتاج LLM، متطلبات عالية على الأداء الحاسوبي وقدرة المعالجة المتوازية. علاوة على ذلك، غالبًا ما يحتاج النظام البيئي للذكاء الاصطناعي داخل السلسلة إلى دعم أنواع مهام متنوعة ومتعددة، بما في ذلك هياكل النماذج المختلفة، ومعالجة البيانات، والاستنتاج، والتخزين، وغيرها من السيناريوهات المتعددة. يجب أن يتم تحسين الطبقة الأولى للذكاء الاصطناعي بشكل عميق في الهيكل الأساسي لتلبية احتياجات النطاق العالي، والانخفاض في الكمون، والمرونة في المعالجة المتوازية، فضلاً عن توفير دعم أصلي لموارد الحوسبة المتنوعة، مما يضمن تشغيل جميع مهام الذكاء الاصطناعي بكفاءة، وتحقيق التوسع السلس من "المهام الأحادية" إلى "النظام البيئي المعقد والمتنوع".
القابلية للتحقق وضمان المخرجات الموثوقة لا ينبغي أن تمنع طبقة الذكاء الاصطناعي من مخاطر الأمان مثل سوء استخدام النموذج أو التلاعب بالبيانات فحسب، بل يجب أيضًا ضمان قابلية التحقق من نتائج الذكاء الاصطناعي وتوافقها من الناحية الميكانيكية من الأسفل. من خلال دمج بيئة التنفيذ الموثوقة (TEE) وإثباتات المعرفة الصفرية (ZK) والحساب الآمن متعدد الأطراف (MPC) وغيرها من التقنيات الرائدة، يمكن للمنصة أن تجعل كل عملية استنتاج للنموذج وتدريب ومعالجة البيانات قابلة للتحقق بشكل مستقل، مما يضمن العدالة والشفافية في نظام الذكاء الاصطناعي. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين على فهم منطق وأساس مخرجات الذكاء الاصطناعي، مما يحقق "ما حصلت عليه هو ما تريده"، ويعزز ثقة المستخدمين ورضاهم عن منتجات الذكاء الاصطناعي.
حماية خصوصية البيانات
تتعلق تطبيقات الذكاء الاصطناعي غالبًا ببيانات حساسة للمستخدم، وفي مجالات مثل المالية والرعاية الصحية والتواصل الاجتماعي، تعتبر حماية خصوصية البيانات أمرًا بالغ الأهمية. يجب أن تضمن طبقة الذكاء الاصطناعي 1، مع الحفاظ على القابلية للتحقق، استخدام تقنيات معالجة البيانات المعتمدة على التشفير، بروتوكولات حساب الخصوصية وإدارة حقوق البيانات، لضمان أمان البيانات خلال جميع العمليات مثل الاستدلال، التدريب والتخزين، مما يمنع بشكل فعال تسرب البيانات وسوء استخدامها، ويزيل القلق الذي يشعر به المستخدمون بشأن أمان البيانات.
قدرة قوية على دعم وتطوير النظام البيئي باعتبارها بنية تحتية من الطبقة 1 الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة في الجانب التكنولوجي، ولكن أيضًا بتوفير أدوات تطوير متكاملة، وSDKs، ودعم العمليات، وآليات تحفيز للمطورين، ومشغلي العقد، ومقدمي خدمات الذكاء الاصطناعي، وغيرهم من المشاركين في النظام البيئي. من خلال تحسين استمرارية قابلية استخدام المنصة وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة لتحقيق ازدهار مستدام في النظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستقدم هذه المقالة شرحًا تفصيليًا عن ستة مشاريع تمثيلية للذكاء الاصطناعي Layer1، بما في ذلك Sentient وSahara AI وRitual وGensyn وBittensor و0G، وستقوم بتنظيم أحدث التطورات في هذا المجال، وتحليل حالة تطوير المشاريع، ومناقشة الاتجاهات المستقبلية.
Sentient: بناء نماذج ذكاء اصطناعي مفتوحة المصدر لا مركزية مخلصة
نظرة عامة على المشروع
Sentient هو منصة بروتوكول مفتوحة المصدر، تعمل على إنشاء سلسلة كتلة AI Layer1 ( المرحلة الأولية هي Layer 2، ثم ستنتقل إلى Layer 1)، من خلال دمج AI Pipeline وتقنية السلسلة الكتلة، لبناء اقتصاد ذكاء اصطناعي لامركزي. الهدف الأساسي هو حل مشاكل ملكية النموذج، وتتبع الاستدعاءات، وتوزيع القيمة في سوق LLM المركزي من خلال إطار "OML" (مفتوح، قابل للربح، موالي)، مما يتيح لنماذج الذكاء الاصطناعي تحقيق هيكل ملكية داخل السلسلة، وشفافية الاستدعاء، وتوزيع القيمة. رؤية Sentient هي تمكين أي شخص من بناء، والتعاون، والامتلاك، وتسييل منتجات الذكاء الاصطناعي، مما يعزز شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال blockchain من جميع أنحاء العالم، ويدعو إلى بناء منصة AGI مدفوعة من المجتمع ومفتوحة المصدر وقابلة للتحقق. تشمل الأعضاء الرئيسيين البروفيسور Pramod Viswanath من جامعة برينستون والبروفيسور Himanshu Tyagi من المعهد الهندي للعلوم، حيث يتوليان مسؤولية أمان AI وحماية الخصوصية، بينما يقود Sandeep Nailwal، أحد مؤسسي Polygon، الإستراتيجية والبيئة الخاصة بالبلوكشين. يمتد خلفية أعضاء الفريق عبر شركات مشهورة مثل Meta وCoinbase وPolygon، بالإضافة إلى مؤسسات تعليمية مرموقة مثل جامعة برينستون ومعهد الهند للتكنولوجيا، مما يغطي مجالات AI/ML وNLP ورؤية الكمبيوتر، ويعملون معًا لدفع المشروع نحو التنفيذ.
باعتبارها مشروعًا رياديًا ثانويًا لمؤسس Polygon المشترك Sandeep Nailwal، جاءت Sentient منذ تأسيسها بهالة من الامتياز، حيث تتمتع بموارد غنية، وشبكات علاقات، ووعي سوقي كبير، مما يوفر دعمًا قويًا لتطور المشروع. في منتصف عام 2024، أكملت Sentient جولة تمويل أولية بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، مع مشاركة عدد من المؤسسات الاستثمارية الأخرى مثل Delphi وHashkey وSpartan وغيرها من عشرات شركات رأس المال المغامر المعروفة.
تصميم الهيكل والطبقة التطبيقية
طبقة البنية التحتية
الهيكل الأساسي
الهيكل الأساسي لـ Sentient يتكون من جزئين: أنبوب الذكاء الاصطناعي (AI Pipeline) ونظام داخل السلسلة.
تشكل أنابيب الذكاء الاصطناعي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتتضمن عمليتين رئيسيتين:
تخطيط البيانات (Data Curation): عملية اختيار البيانات المدفوعة من المجتمع، المستخدمة لمحاذاة النماذج.
تدريب الولاء (Loyalty Training): ضمان أن يحافظ النموذج على عملية تدريب تتماشى مع نوايا المجتمع.
يوفر نظام السلسلة شفافية وتحكمًا لامركزيًا للبروتوكولات، مما يضمن ملكية، تتبع استخدام، توزيع الإيرادات، وحوكمة عادلة للأعمال الفنية للذكاء الاصطناعي. تتكون الهيكلية المحددة من أربع طبقات:
طبقة التخزين: تخزين أوزان النموذج ومعلومات تسجيل بصمات الأصابع؛
طبقة التوزيع: نموذج التحكم في عقد التفويض نقطة دخول استدعاء؛
طبقة الوصول: من خلال إثبات الأذونات، يتم التحقق مما إذا كان المستخدم مخولاً؛
طبقة التحفيز: ستقوم عقدة توجيه العوائد بتوزيع المدفوعات في كل استدعاء للمستخدمين، الموزعين والمحققين.
إطار نموذج OML
إطار OML (المفتوح Open، القابل للت monetization Monetizable، المخلص Loyal) هو الفكرة الأساسية التي قدمتها Sentient، وتهدف إلى توفير حماية ملكية واضحة وآليات حوافز اقتصادية لنماذج الذكاء الاصطناعي المفتوحة المصدر. من خلال الجمع بين تقنية داخل السلسلة والرياضيات المشفرة الأصلية للذكاء الاصطناعي، يتمتع بالخصائص التالية:
الانفتاح: يجب أن يكون النموذج مفتوح المصدر، ويجب أن تكون الشفرة وبنية البيانات شفافة، مما يسهل على المجتمع إعادة الإنتاج والتدقيق والتحسين.
التسييل: كل استدعاء نموذج سيؤدي إلى تدفق إيرادات، وسيقوم العقد داخل السلسلة بتوزيع الإيرادات على المدربين والموزعين والمتحققين.
الولاء: ينتمي النموذج إلى مجتمع المساهمين، ويتم تحديد اتجاه الترقية والحكم من قبل DAO، ويتم التحكم في الاستخدام والتعديل بواسطة آلية التشفير.
التشفير الأصلي للذكاء الاصطناعي (AI-native Cryptography)
التشفير الأصلي المدعوم بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وهياكل المانيفولد منخفضة الأبعاد، وخصائص قابلية الاشتقاق للنموذج، لتطوير آلية أمان خفيفة "قابلة للتحقق ولكن لا يمكن إزالتها". التقنية الأساسية لها هي:
إدراج بصمة: أثناء التدريب، يتم إدخال مجموعة من أزواج المفاتيح المخفية query-response لتشكيل توقيع فريد للنموذج؛
بروتوكول التحقق من الملكية: التحقق مما إذا كانت بصمة الإصبع محفوظة من خلال كاشف طرف ثالث (Prover) في شكل استفسار.
آلية استدعاء الإذن: يجب الحصول على "شهادة الإذن" الصادرة عن مالك النموذج قبل الاستدعاء، ثم يقوم النظام بموجب ذلك بتفويض النموذج لفك تشفير الإدخال وإرجاع الإجابة الدقيقة.
يمكن تحقيق "استدعاء مفوض بناءً على السلوك + تحقق من الانتماء" بهذه الطريقة بدون تكلفة إعادة تشفير.
إطار تأكيد النموذج والتنفيذ الآمن
Sentient يتبنى حاليا أمان Melange المختلط: حيث يتم دمج تأكيد الهوية باستخدام بصمة الإصبع، تنفيذ TEE، وتقسيم الأرباح من العقود داخل السلسلة. حيث تعتبر طريقة البصمة هي الخط الرئيسي الذي يطبق OML 1.0، مع التأكيد على فكرة "الأمان المتفائل (Optimistic Security)", أي الافتراض بالامتثال، ويمكن اكتشاف العقوبات عند انتهاك القواعد.
آلية بصمة الإصبع هي التنفيذ الأساسي لـ OML، حيث يتم تضمين "سؤال-إجابة" محددين، مما يسمح للنموذج بإنشاء توقيع فريد خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالكي النموذج التحقق من الملكية ومنع النسخ غير المصرح به والتجارية. لا تحمي هذه الآلية فقط حقوق مطوري النموذج، بل توفر أيضًا سجلات يمكن تتبعها داخل السلسلة لسلوك استخدام النموذج.
بالإضافة إلى ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، مستفيدة من بيئات التنفيذ الموثوقة (مثل AWS Nitro Enclaves) لضمان أن النموذج يستجيب فقط للطلبات المصرح بها، مما يمنع الوصول والاستخدام غير المصرح به. على الرغم من أن TEE يعتمد على الأجهزة ويحتوي على بعض مخاطر الأمان، إلا أن ميزاته العالية الأداء والوقت الحقيقي تجعل منه التقنية الأساسية لنشر النماذج الحالية.
في المستقبل، تخطط Sentient لإدخال تقنية إثبات المعرفة الصفرية (ZK) والتشفير المتجانس بالكامل (FHE)
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 23
أعجبني
23
4
مشاركة
تعليق
0/400
AlphaBrain
· منذ 17 س
هذا بالفعل هو الاتجاه الأكثر حرارة في السباق
شاهد النسخة الأصليةرد0
FudVaccinator
· 07-18 04:11
又整这些空气项目 خدای الناس لتحقيق الربح吧
شاهد النسخة الأصليةرد0
HashBandit
· 07-17 14:13
برا، يجب أن تحل هذه L1s عنق الزجاجة في الحوسبة حقًا... يذكرني بتعدين الإيثريوم في عام 2017 عندما قتلتني فاتورة الكهرباء الخاصة بي
AI Layer1 سباق بانورامي: 6 مشاريع رائدة في ثورة اللامركزية AI生态
تقرير Layer1 AI: البحث عن تربة DeAI داخل السلسلة
ملخص
الخلفية
في السنوات الأخيرة، تواصل شركات التكنولوجيا الكبرى مثل OpenAI وAnthropic وGoogle وMeta دفع تطور نماذج اللغة الكبيرة (LLM) بسرعة. تظهر LLM قدرات غير مسبوقة في جميع المجالات، مما يعزز الخيال البشري بشكل كبير، وحتى في بعض السيناريوهات، تظهر إمكانية استبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات محصور بقوة في يد عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رؤوس الأموال الكبيرة والتحكم في موارد الحوسبة العالية التكلفة، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل من الصعب على الغالبية العظمى من المطورين وفرق الابتكار التنافس معها.
في البداية السريعة لتطور الذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الانجازات والراحة التي توفرها التقنية، في حين أن الانتباه لقضايا جوهرية مثل حماية الخصوصية، والشفافية، والأمان يكون أقل نسبيًا. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على الصحة العامة لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستزداد بشكل ملحوظ الجدل حول ما إذا كان الذكاء الاصطناعي "يتجه نحو الخير" أو "يتجه نحو الشر"، بينما غالبًا ما تفتقر الشركات الكبرى المركزية، المدفوعة بغرائز الربح، إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تتيح تقنية blockchain، بفضل خصائصها المتمثلة في اللامركزية والشفافية ومقاومة الرقابة، إمكانية جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. حالياً، ظهرت العديد من تطبيقات "Web3 AI" على سلاسل الكتل الرئيسية مثل Solana وBase. ومع ذلك، من خلال التحليل المتعمق، يمكن ملاحظة أن هذه المشاريع لا تزال تعاني من العديد من المشكلات: من ناحية، مستوى اللامركزية محدود، حيث لا تزال العناصر الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، كما أن خاصية الميمز متضخمة، مما يجعل من الصعب دعم نظام بيئي مفتوح حقيقي؛ من ناحية أخرى، بالمقارنة مع منتجات الذكاء الاصطناعي في عالم Web2، لا يزال الذكاء الاصطناعي داخل السلسلة محدوداً من حيث قدرة النموذج، واستخدام البيانات، ومجالات التطبيق، مما يستدعي تحسين العمق والاتساع في الابتكار.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، وتمكين البلوكتشين من استيعاب تطبيقات الذكاء الاصطناعي على نطاق واسع بشكل آمن وفعال وديمقراطي، ومنافسة الحلول المركزية من حيث الأداء، نحتاج إلى تصميم بلوكتشين من الطبقة الأولى مخصصة للذكاء الاصطناعي. سيوفر هذا أساسًا قويًا للابتكار المفتوح في الذكاء الاصطناعي، والحكم الديمقراطي، وأمان البيانات، مما يدفع نحو ازدهار النظام البيئي للذكاء الاصطناعي اللامركزي.
الخصائص الأساسية لـ AI Layer 1
AI Layer 1 كأحد سلاسل الكتل المصممة خصيصًا لتطبيقات الذكاء الاصطناعي، فإن هيكلها الأساسي وتصميم أدائها يركزان بشكل وثيق على متطلبات مهام الذكاء الاصطناعي، بهدف دعم التنمية المستدامة وازدهار النظام البيئي للذكاء الاصطناعي داخل السلسلة بكفاءة. بشكل محدد، يجب أن تتمتع AI Layer 1 بالقدرات الأساسية التالية:
آلية الحوافز الفعالة واللامركزية إن جوهر AI Layer 1 يكمن في بناء شبكة مشتركة مفتوحة من الموارد مثل القوة الحاسوبية والتخزين. على عكس العقد التقليدية في داخل السلسلة التي تركز بشكل أساسي على تسجيل الدفاتر، تحتاج العقد في AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يجب عليها توفير القوة الحاسوبية، وإكمال تدريب ونمذجة الذكاء الاصطناعي، بالإضافة إلى المساهمة في التخزين والبيانات وعرض النطاق الترددي، مما يكسر احتكار الهيئات المركزية في البنية التحتية للذكاء الاصطناعي. وهذا يفرض متطلبات أعلى على إجماع الطبقات السفلية وآلية الحوافز: يجب أن تكون AI Layer 1 قادرة على تقييم وتحفيز والتحقق بدقة من المساهمات الفعلية للعقد في مهام مثل استنتاج وتدريب الذكاء الاصطناعي، لتحقيق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتخفيف التكاليف الإجمالية للقوة الحاسوبية.
الأداء العالي الممتاز وقدرة دعم المهام المتنوعة تتطلب مهام الذكاء الاصطناعي، وخاصة تدريب واستنتاج LLM، متطلبات عالية على الأداء الحاسوبي وقدرة المعالجة المتوازية. علاوة على ذلك، غالبًا ما يحتاج النظام البيئي للذكاء الاصطناعي داخل السلسلة إلى دعم أنواع مهام متنوعة ومتعددة، بما في ذلك هياكل النماذج المختلفة، ومعالجة البيانات، والاستنتاج، والتخزين، وغيرها من السيناريوهات المتعددة. يجب أن يتم تحسين الطبقة الأولى للذكاء الاصطناعي بشكل عميق في الهيكل الأساسي لتلبية احتياجات النطاق العالي، والانخفاض في الكمون، والمرونة في المعالجة المتوازية، فضلاً عن توفير دعم أصلي لموارد الحوسبة المتنوعة، مما يضمن تشغيل جميع مهام الذكاء الاصطناعي بكفاءة، وتحقيق التوسع السلس من "المهام الأحادية" إلى "النظام البيئي المعقد والمتنوع".
القابلية للتحقق وضمان المخرجات الموثوقة لا ينبغي أن تمنع طبقة الذكاء الاصطناعي من مخاطر الأمان مثل سوء استخدام النموذج أو التلاعب بالبيانات فحسب، بل يجب أيضًا ضمان قابلية التحقق من نتائج الذكاء الاصطناعي وتوافقها من الناحية الميكانيكية من الأسفل. من خلال دمج بيئة التنفيذ الموثوقة (TEE) وإثباتات المعرفة الصفرية (ZK) والحساب الآمن متعدد الأطراف (MPC) وغيرها من التقنيات الرائدة، يمكن للمنصة أن تجعل كل عملية استنتاج للنموذج وتدريب ومعالجة البيانات قابلة للتحقق بشكل مستقل، مما يضمن العدالة والشفافية في نظام الذكاء الاصطناعي. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين على فهم منطق وأساس مخرجات الذكاء الاصطناعي، مما يحقق "ما حصلت عليه هو ما تريده"، ويعزز ثقة المستخدمين ورضاهم عن منتجات الذكاء الاصطناعي.
حماية خصوصية البيانات تتعلق تطبيقات الذكاء الاصطناعي غالبًا ببيانات حساسة للمستخدم، وفي مجالات مثل المالية والرعاية الصحية والتواصل الاجتماعي، تعتبر حماية خصوصية البيانات أمرًا بالغ الأهمية. يجب أن تضمن طبقة الذكاء الاصطناعي 1، مع الحفاظ على القابلية للتحقق، استخدام تقنيات معالجة البيانات المعتمدة على التشفير، بروتوكولات حساب الخصوصية وإدارة حقوق البيانات، لضمان أمان البيانات خلال جميع العمليات مثل الاستدلال، التدريب والتخزين، مما يمنع بشكل فعال تسرب البيانات وسوء استخدامها، ويزيل القلق الذي يشعر به المستخدمون بشأن أمان البيانات.
قدرة قوية على دعم وتطوير النظام البيئي باعتبارها بنية تحتية من الطبقة 1 الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة في الجانب التكنولوجي، ولكن أيضًا بتوفير أدوات تطوير متكاملة، وSDKs، ودعم العمليات، وآليات تحفيز للمطورين، ومشغلي العقد، ومقدمي خدمات الذكاء الاصطناعي، وغيرهم من المشاركين في النظام البيئي. من خلال تحسين استمرارية قابلية استخدام المنصة وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة لتحقيق ازدهار مستدام في النظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستقدم هذه المقالة شرحًا تفصيليًا عن ستة مشاريع تمثيلية للذكاء الاصطناعي Layer1، بما في ذلك Sentient وSahara AI وRitual وGensyn وBittensor و0G، وستقوم بتنظيم أحدث التطورات في هذا المجال، وتحليل حالة تطوير المشاريع، ومناقشة الاتجاهات المستقبلية.
Sentient: بناء نماذج ذكاء اصطناعي مفتوحة المصدر لا مركزية مخلصة
نظرة عامة على المشروع
Sentient هو منصة بروتوكول مفتوحة المصدر، تعمل على إنشاء سلسلة كتلة AI Layer1 ( المرحلة الأولية هي Layer 2، ثم ستنتقل إلى Layer 1)، من خلال دمج AI Pipeline وتقنية السلسلة الكتلة، لبناء اقتصاد ذكاء اصطناعي لامركزي. الهدف الأساسي هو حل مشاكل ملكية النموذج، وتتبع الاستدعاءات، وتوزيع القيمة في سوق LLM المركزي من خلال إطار "OML" (مفتوح، قابل للربح، موالي)، مما يتيح لنماذج الذكاء الاصطناعي تحقيق هيكل ملكية داخل السلسلة، وشفافية الاستدعاء، وتوزيع القيمة. رؤية Sentient هي تمكين أي شخص من بناء، والتعاون، والامتلاك، وتسييل منتجات الذكاء الاصطناعي، مما يعزز شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال blockchain من جميع أنحاء العالم، ويدعو إلى بناء منصة AGI مدفوعة من المجتمع ومفتوحة المصدر وقابلة للتحقق. تشمل الأعضاء الرئيسيين البروفيسور Pramod Viswanath من جامعة برينستون والبروفيسور Himanshu Tyagi من المعهد الهندي للعلوم، حيث يتوليان مسؤولية أمان AI وحماية الخصوصية، بينما يقود Sandeep Nailwal، أحد مؤسسي Polygon، الإستراتيجية والبيئة الخاصة بالبلوكشين. يمتد خلفية أعضاء الفريق عبر شركات مشهورة مثل Meta وCoinbase وPolygon، بالإضافة إلى مؤسسات تعليمية مرموقة مثل جامعة برينستون ومعهد الهند للتكنولوجيا، مما يغطي مجالات AI/ML وNLP ورؤية الكمبيوتر، ويعملون معًا لدفع المشروع نحو التنفيذ.
باعتبارها مشروعًا رياديًا ثانويًا لمؤسس Polygon المشترك Sandeep Nailwal، جاءت Sentient منذ تأسيسها بهالة من الامتياز، حيث تتمتع بموارد غنية، وشبكات علاقات، ووعي سوقي كبير، مما يوفر دعمًا قويًا لتطور المشروع. في منتصف عام 2024، أكملت Sentient جولة تمويل أولية بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، مع مشاركة عدد من المؤسسات الاستثمارية الأخرى مثل Delphi وHashkey وSpartan وغيرها من عشرات شركات رأس المال المغامر المعروفة.
تصميم الهيكل والطبقة التطبيقية
طبقة البنية التحتية
الهيكل الأساسي
الهيكل الأساسي لـ Sentient يتكون من جزئين: أنبوب الذكاء الاصطناعي (AI Pipeline) ونظام داخل السلسلة.
تشكل أنابيب الذكاء الاصطناعي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتتضمن عمليتين رئيسيتين:
يوفر نظام السلسلة شفافية وتحكمًا لامركزيًا للبروتوكولات، مما يضمن ملكية، تتبع استخدام، توزيع الإيرادات، وحوكمة عادلة للأعمال الفنية للذكاء الاصطناعي. تتكون الهيكلية المحددة من أربع طبقات:
إطار نموذج OML
إطار OML (المفتوح Open، القابل للت monetization Monetizable، المخلص Loyal) هو الفكرة الأساسية التي قدمتها Sentient، وتهدف إلى توفير حماية ملكية واضحة وآليات حوافز اقتصادية لنماذج الذكاء الاصطناعي المفتوحة المصدر. من خلال الجمع بين تقنية داخل السلسلة والرياضيات المشفرة الأصلية للذكاء الاصطناعي، يتمتع بالخصائص التالية:
التشفير الأصلي للذكاء الاصطناعي (AI-native Cryptography)
التشفير الأصلي المدعوم بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وهياكل المانيفولد منخفضة الأبعاد، وخصائص قابلية الاشتقاق للنموذج، لتطوير آلية أمان خفيفة "قابلة للتحقق ولكن لا يمكن إزالتها". التقنية الأساسية لها هي:
يمكن تحقيق "استدعاء مفوض بناءً على السلوك + تحقق من الانتماء" بهذه الطريقة بدون تكلفة إعادة تشفير.
إطار تأكيد النموذج والتنفيذ الآمن
Sentient يتبنى حاليا أمان Melange المختلط: حيث يتم دمج تأكيد الهوية باستخدام بصمة الإصبع، تنفيذ TEE، وتقسيم الأرباح من العقود داخل السلسلة. حيث تعتبر طريقة البصمة هي الخط الرئيسي الذي يطبق OML 1.0، مع التأكيد على فكرة "الأمان المتفائل (Optimistic Security)", أي الافتراض بالامتثال، ويمكن اكتشاف العقوبات عند انتهاك القواعد.
آلية بصمة الإصبع هي التنفيذ الأساسي لـ OML، حيث يتم تضمين "سؤال-إجابة" محددين، مما يسمح للنموذج بإنشاء توقيع فريد خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالكي النموذج التحقق من الملكية ومنع النسخ غير المصرح به والتجارية. لا تحمي هذه الآلية فقط حقوق مطوري النموذج، بل توفر أيضًا سجلات يمكن تتبعها داخل السلسلة لسلوك استخدام النموذج.
بالإضافة إلى ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، مستفيدة من بيئات التنفيذ الموثوقة (مثل AWS Nitro Enclaves) لضمان أن النموذج يستجيب فقط للطلبات المصرح بها، مما يمنع الوصول والاستخدام غير المصرح به. على الرغم من أن TEE يعتمد على الأجهزة ويحتوي على بعض مخاطر الأمان، إلا أن ميزاته العالية الأداء والوقت الحقيقي تجعل منه التقنية الأساسية لنشر النماذج الحالية.
في المستقبل، تخطط Sentient لإدخال تقنية إثبات المعرفة الصفرية (ZK) والتشفير المتجانس بالكامل (FHE)