## 📝 Introduction <!-- 구현할 논문에 대해서 소개합니다. 논문 분야(NLP, Vision, etc)/논문에서 정의한 문제/논문에서 제안한 방법론/에 대해서 기술합니다.--> - 하드웨어 친화적인 뉴럴넷을 위해 weight를 [-1, 1]로 Quantization합니다. ## Why? <!-- 해당 논문을 구현하려는 이유에 대해서 간단히 작성해주세요. --> - 학위논문을 위한 초석입니다. BinaryConnect는 BNN 계열의 뿌리입니다. ## Issue card <!-- 논문 구현을 위해서 개발해야하는 기능 리스트를 최대한 상세하게 나열해주세요.--> 1. Binarized Linear Operation 추가 2. Binarized Conv2d Operation 추가 3. Binarized Linear Layer 추가 - weight clipping 기능 포함 4. Binarized Conv2D Layer 추가 - weight clipping 기능 포함 5. template 구조 최신화 6. Pytorch-lightning을 이용한 Model부 구현 - MLP - Train - Test - Conv - Train - Test - Early Stopping 7. W&B 붙이기 8. Config Manager 붙이기 - Hydra 9. Hyper parameter Tuner 붙이기 10. TorchServe 붙이기 - Dockerfile 11. E2E 테스트 구성 ## Schedule <!-- 기능 리스트에 대한 개발 일정을 간략하게 표기해주세요.--> 1. Binarized Linear Operation 추가 - ~7월 2. Binarized Conv2d Operation 추가 - ~8월 첫째주 3. Binarized Linear Layer 추가 - weight clipping 기능 포함 - ~8월 둘째주 4. Binarized Conv2D Layer 추가 - weight clipping 기능 포함 - ~8월 둘째주 5. template 구조 최신화 - ~8월 셋째주 6. Pytorch-lightning을 이용한 Model부 구현 - ~8월 셋째주 - MLP - Train - Test - Conv - Train - Test - Early Stopping 7. W&B 붙이기 - ~8월 넷째주 8. Config Manager 붙이기 - Hydra - ~8월 넷째주 9. Hyper parameter Tuner 붙이기 - ~9월 첫째주 10. TorchServe 붙이기 - Dockerfile - ~9월 첫째주 11. E2E 테스트 구성 - ~9월 첫째주 ## Reference <!-- 논문을 확인할 수 있는 링크를 적어주세요.--> - https://arxiv.org/pdf/1511.00363.pdf