تقييم موثوقية نموذج GPT يكشف عن مخاطر محتملة مثل تسرب الخصوصية

robot
إنشاء الملخص قيد التقدم

دراسة تقييم موثوقية نموذج GPT تكشف عن ثغرات محتملة

دراسة أُجريت بالتعاون بين جامعة إلينوي في أوربانا شامبين، وجامعة ستانفورد، وجامعة كاليفورنيا في بيركلي، ومركز أمان الذكاء الاصطناعي، ومعهد أبحاث مايكروسوفت، قامت بتقييم شامل لموثوقية نموذج المحولات المدربة مسبقًا التوليدية (GPT). صمم فريق البحث منصة تقييم شاملة، وقدمت الورقة البحثية المنشورة مؤخرًا بعنوان "DecodingTrust: تقييم شامل لموثوقية نموذج GPT" النتائج ذات الصلة.

أظهرت الأبحاث وجود بعض الثغرات المتعلقة بالموثوقية التي لم يتم الكشف عنها سابقًا. على سبيل المثال، من السهل خداع نموذج GPT لإنتاج مخرجات سامة ومت偏لة، وقد يتسبب في تسريب معلومات خاصة من بيانات التدريب وسجل المحادثات. على الرغم من أن GPT-4 عادةً ما يكون أكثر موثوقية من GPT-3.5 في اختبارات المعايير القياسية، إلا أنه يصبح أكثر عرضة للهجمات عندما يواجه نصوص ضارة تهدف إلى تجاوز تدابير الأمان. قد يكون ذلك بسبب أن GPT-4 يتبع التعليمات المضللة بشكل أكثر صرامة.

تعاونت فرق البحث مع الأطراف المعنية لضمان عدم تأثير هذه الاكتشافات على الخدمات الموجهة للمستخدمين. كما شاركوا نتائج البحث مع OpenAI، التي أدرجت هذه الثغرات المحتملة في الوصف النظامي للنماذج ذات الصلة.

لقد قامت هذه الدراسة بتقييم شامل لنموذج GPT من ثمانية جوانب موثوقة، بما في ذلك الهجمات العدائية، والسُمّية والتحيز، وتسريب الخصوصية، وغيرها. وجدت الدراسة أن نموذج GPT قد يتم تضليله في بعض الحالات للموافقة على محتوى متحيز، خاصة عند مواجهة مطالبات نظام مضللة مصممة بعناية. بالإضافة إلى ذلك، قد يكشف نموذج GPT أيضًا عن معلومات حساسة من بيانات التدريب، مثل عناوين البريد الإلكتروني، وخاصة في سياقات معينة أو في حالات عرض عينات قليلة.

تأمل فرق البحث من خلال نشر هذه الاكتشافات في تشجيع المزيد من الباحثين على الانخراط في العمل ذي الصلة، والعمل معًا على إنشاء نماذج أقوى وأكثر موثوقية. الكود الخاص بمعايير التقييم الذي يقدمونه يتمتع بقابلية توسيع وسهولة استخدام عالية، ويهدف إلى تعزيز التعاون والتقدم في هذا المجال.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 6
  • مشاركة
تعليق
0/400
MetaMaximalistvip
· 07-12 19:38
بصراحة، هذا يؤكد فقط ما شهدناه في منحنيات أمان البروتوكول منذ اليوم الأول...
شاهد النسخة الأصليةرد0
RugPullSurvivorvip
· 07-11 10:18
تعرض عالم الذكاء الاصطناعي للفشل
شاهد النسخة الأصليةرد0
digital_archaeologistvip
· 07-10 07:21
gpt هذه الأمان قليلاً الارتفاع...
شاهد النسخة الأصليةرد0
HashRateHermitvip
· 07-10 07:16
تسريب الخصوصية؟ كلما كانت الذكاء الاصطناعي أكثر موثوقية، كلما كانت أكثر خداعًا.
شاهد النسخة الأصليةرد0
LeekCuttervip
· 07-10 07:12
لم أتوقع أن يكون gpt ضعيفًا إلى هذا الحد~
شاهد النسخة الأصليةرد0
ChainMelonWatchervip
· 07-10 07:04
حماية الخصوصية غير كافية حقًا تجعل الأمور صعبة
شاهد النسخة الأصليةرد0
  • تثبيت