Efficient Approximate Floating - Point Multiplier With Runtime Reconfigurable Frequency and Precision محمد حسن آبادی کارشناسی ارشد دانشگاه امیرکبیر، پلی تکنیک تهران ( واحد گرمسار ) استاد درس دکتر منوچهری خرداد ۱۴۰۴ مساله و راه حل های فعلی برخی از شبکههای عصبی عمیق نیاز است به چندین مگابایت پارامتر دسترسی داشته باشند و میل یاردها عملیات ضرب و جمع را اجرا کنند روش Pruning حذف وزن ها ، نورون ها یا کانالهای کماهمیت از شبکه روش Quantization کاهش دقت دادهها از عددهای ۳۲ بیتی شناور FB 32 به عددهای Fixed Point ۸ بیتی یا کمتر 1 مشکلات راه حل های فعلی مصرف انرژی نسبتا بالا برای انجام محاسبات تمامی پارامتر ها باید محدود به Fixed Point شوند لایه های مختلف شبکه عصبی تحمل پذیری متفاوتی در برابر دقت عملیات ضرب دارند 2 طرح پیشنهادی یک ضربکننده تقریبی ممیز شناور با قابلیت اصلاح خطا و سه حالت دقت بر پایه الگوریتم لگاریتمی ط راحی شده است ماژول کنترل جدیدی برای تنظیم فرکانس کلاک در زمان اجرا ارائه شده است آزمایشها نشان میدهند که این طرح نسبت به ضربکننده های دقیق و تقریبی موجود، سریع تر ، کممصرف تر و با خطای کمتر عمل میکند ، بدون تأثیر محسوس بر دقت استنتاج DNN 3 تقسیم بندی بیت ها 4 تخمین لگاریتمی حاصلضرب ⇒ ⇒ 5 تخمین لگاریتمی حاصلضرب 6 تخمین حاصلضرب با دقت مقدار واقعی مانتیس واقعی مانتیس تخمینی 7 معماری پیشنهادی ضرب کننده 8 واحد تصحیح خطا 9 واحد تشخیص سریع خطا FECE 10 تحلیل خطا ضرب کننده پیشنهادی [ 18 ] S. Yu, Y. Liu, and S. X. - D. Tan, “ COSAIM: Counter - based stochastic - behaving approximate integer multiplier for deep neural networks, ” in Proc. 58 th ACM/IEEE Design Autom . Conf. (DAC) , 2021 , pp. 499 – 504 [ 19 ] A. G. M. Strollo , E. Napoli, D. De Caro, N. Petra, and G. D. Meo , “ Comparison and extension of approximate 4 - 2 compressors for low - power approximate multipliers, ” IEEE Trans. Circuits Syst. I, Reg. Papers , vol. 67 , no. 9 , pp. 3021 – 3034 , Sep. 2020 11 تحلیل عملکرد اجرا روی XILIN FPGA 12 تحلیل دقت در یادگیری DNN 13 سپاس از توجه تان