يمكن لنماذج اللغات الكبيرة الأصغر حجمًا أن تتيح الاستخدام المحلي الفعال على الهواتف وأجهزة الكمبيوتر المحمولة

14
0

تعمل نماذج اللغات الكبيرة (LLMs) بشكل متزايد على أتمتة المهام مثل الترجمة وتصنيف النصوص وخدمة العملاء. لكن الاستفادة من قوة LLM تتطلب عادةً من المستخدمين إرسال طلباتهم إلى خادم مركزي – وهي عملية باهظة الثمن وتستهلك الكثير من الطاقة وغالبًا ما تكون بطيئة.

الآن، قدم الباحثون تقنية لضغط مجموعات البيانات الخاصة بماجستير إدارة الأعمال، مما قد يؤدي إلى زيادة الخصوصية وتوفير الطاقة وخفض التكاليف.

تعمل الخوارزمية الجديدة، التي طورها مهندسون في جامعة برينستون وستانفورد الهندسية، عن طريق تقليص التكرار وتقليل دقة طبقات المعلومات الخاصة بماجستير إدارة الأعمال. يمكن تخزين هذا النوع الأصغر حجمًا من LLM والوصول إليه محليًا على جهاز مثل الهاتف أو الكمبيوتر المحمول ويمكن أن يوفر أداءً دقيقًا ودقيقًا تقريبًا مثل الإصدار غير المضغوط.

“في أي وقت يمكنك فيه تقليل التعقيد الحسابي ومتطلبات التخزين وعرض النطاق الترددي لاستخدام نماذج الذكاء الاصطناعي، يمكنك تمكين الذكاء الاصطناعي على الأجهزة والأنظمة التي لا يمكنها التعامل مع مثل هذه الحوسبة والذاكرة المكثفة…

رابط المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا