يكشف الباحثون عن خلل أمني كبير في النماذج

11
0

أظهر الباحثون أن نماذج الذكاء الاصطناعي يمكن سرقتها من خلال تحليل إشارات الأجهزة، مما يعرض الملكية الفكرية والأمن للخطر. هناك حاجة الآن إلى تدابير مضادة. الائتمان: SciTechDaily.com

استخدم الباحثون الإشارات الكهرومغناطيسية لسرقة وتكرار نماذج الذكاء الاصطناعي من Google Edge TPU بنسبة 99.91% دقة، وكشف نقاط الضعف الكبيرة في أنظمة الذكاء الاصطناعي والدعوة إلى اتخاذ تدابير وقائية عاجلة.

لقد أظهر الباحثون أنه من الممكن سرقة الذكاء الاصطناعي (AI) دون اختراق الجهاز الذي يعمل عليه بشكل مباشر. لا تتطلب هذه التقنية المبتكرة معرفة مسبقة بالبرمجيات أو البنية الداعمة للذكاء الاصطناعي، مما يجعلها تقدمًا كبيرًا في طرق استخلاص النماذج.

يقول أيدين أيسو، المؤلف المشارك لورقة بحثية عن العمل وأستاذ مشارك في الهندسة الكهربائية وهندسة الكمبيوتر في جامعة كاليفورنيا: “إن نماذج الذكاء الاصطناعي ذات قيمة، ولا نريد أن يسرقها الناس”. جامعة ولاية كارولينا الشمالية. “إن بناء النموذج أمر مكلف ويتطلب مصادر حاسوبية كبيرة. لكن فقط…

رابط المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا