분석적 경사 하강법의 성능 향상을 통한 디지털 로직회로의 타이밍 최적화 연구 경사하강 분석(Analytic Gradient Descent) 알고리즘(Algorithm)은 시뮬레이션 (Simulation) 모델(model)에 의해 학습된 신경망을 통해 목표 대상에 대하여 분석적 인 기울기를 계산하고 최적화 할 수 있다. 경사하강 분석 알고리즘은 여러 분야에 최 적화를 진행할 때 유용하게 사용될 수 있다. 특히 전자 설계 자동화(Electronic Design Automation)분야에서 사용되고 있는 딥러닝(Deep learning) 모델과 같이 사 용할 경우 회로의 성능을 예측하고 높여줄 수 있다. 경사하강 분석 알고리즘을 적용 한 딥러닝 모델의 경우 디지털(Digital) 회로 설계분야에 많이 사용되고 있는 SynopsysDC와 근접한 성능을 보여주고 있다. 하지만 기존 경사하강 분석 알고리즘 에는 하이퍼파라미터(Hyperparameter)가 튜닝(tunning) 되지 않았으며 여러 최적화 기법이 적용되지 않았다. 본 논문에서는 경사하강 분석 알고리즘의 성능을 높일 수 있는 다양한 최적화 기법을 적용했으며 하이퍼파라미터 값들의 조정을 통해 논리게 이트(Gate)의 작동 시간을 단축 시켰다. 성능이 높아진 경사하강 분석 알고리즘을 사 용하여 디지털 회로의 게이트 사이즈(Size)를 조절할 경우 SynopsysDC 기준으로 결 과의 우수함(quality of result)이 –0.1572가 나왔다. 이는 하이퍼파라미터의 튜닝과 알맞은 최적화 기법의 적용이 모델에 어떤 영향을 미치는지 보여주는 지표이다. 본 논문은 하이퍼파라미터 튜닝과 딥러닝 모델에 맞는 최적화 기법이 성능을 높여줄 수 있는 요인이라고 말하고 있다. 또한 성능이 향상된 경사하강 분석 알고리즘은 최적화 가 필요한 여러 분야에서 사용 될 수 있을 것이다.
The Analytical Gradient Descent (AGD) algorithm can calculate and optimize analytical slopes for target targets through neural networks learned by simulation models. The AGD algorithm can be useful when optimizing several fields. In particular, when used with deep learning models used in the field of electronic design automation (EDA), circuit performance can be predicted and increased. Deep learning models with AGD algorithms show performance close to SynopsysDC, which is widely used in digital circuit design. However, the existing AGD algorithm did not have hyperparameters tuned and several optimization techniques were not applied. In this paper, various optimization techniques that can increase the performance of the AGD algorithm were applied, and the operation time of the logic gate was shortened by adjusting hyperparameter values. When adjusting the gate size of a digital circuit using a performance-enhanced AGD algorithm, the QoR (quality of result) was -0.1572 based on SynopsysDC. This is an indicator of how the tuning of hyperparameters and the application of appropriate optimization techniques affect the model. This paper says that hyperparameter tuning and optimization techniques suitable for deep learning models are factors that can increase performance. Moreover, the performance-enhanced AGD algorithm could be used in several areas that require optimization