본문 바로가기

분류 전체보기100

[Python] 1x1 point convolution 코드 # loading the layer file layer_name = 'intro.conv1.convs.1' inp = np.load(f'npy/{layer_name}_inp.npy') wgt = np.load(f'npy/{layer_name}_wgt.npy') try: bias = np.load(f'npy/{layer_name}_bias.npy') except: bias_flag = False else: bias_flag = True out = np.load(f'npy/{layer_name}_out.npy') # changing to fixed point inp_fxp = inp.astype(np.int64) wgt_fxp = wgt.astype(np.int64) psum_fxp = np.zeros_li.. 2023. 9. 9.
[Verilog] Fixed point Scaler 연산 (Quantization - 비트 수가 다른 파라미터와 연산) Pytorch에서 quantization을 구현 코드를 verilog로 변환하기 위해서는 fixed point scaler 연산이 필요하다. 연산에 있어서 필요한 여러 개념들이 있는데 아래 블로그 글을 참고하면 좋다. 2023.09.05 - [Digital Logic/Verilog] - [Verilog] Fixed point Scaler 연산 (Quantization - binary 연산) 2023.09.06 - [Digital Logic/Verilog] - [Verilog] Fixed point Scaler 연산 (Quantization - sign 곱셈/덧셈 연산) [Verilog] Fixed point Scaler 연산 (Quantization - binary 연산) Fixed point 란? ve.. 2023. 9. 6.
[Verilog] Fixed point Scaler 연산 (Quantization - sign 곱셈/덧셈 연산) Fixed point Scaler 연산의 기초는 아래 블로그 글을 참고하면 좋다. 2023.09.05 - [Digital Logic/Verilog] - [Verilog] Fixed point Scaler 연산 (Quantization - binary 연산) [Verilog] Fixed point Scaler 연산 (Quantization - binary 연산) Fixed point 란? verilog로 프로그래밍 하기 위해서는 값의 형태가 fixed point로 구성되어야 한다. 위의 그림처럼 sign / Integer / Fraction 으로 되어 있다. 특히 quantization의 경우, Integer와 scaler로 나눠서 연산 rubber-tree.tistory.com Scaling 연산 Res.. 2023. 9. 6.
[Verilog] Fixed point Scaler 연산 (Quantization - binary 연산) Fixed point 란? verilog로 프로그래밍 하기 위해서는 값의 형태가 fixed point로 구성되어야 한다. 위의 그림처럼 sign / Integer / Fraction 으로 되어 있다. 특히 quantization의 경우, Integer와 scaler로 나눠서 연산하며 scaler의 integer와 fraction이 각각 몇 bit인지를 알고 있어야 된다. Fixed point Scaler 연산 아래와 같이 quantization하는 pytorch 코드가 있다. // rescaling rescale = self.a_max / self.a_max_origin inp = inp * rescale // rounding inp = torch.round(inp) inp = inp * (1. / se.. 2023. 9. 5.
NPU 부흥을 위해 꼭 필요한 것 '컴파일러' https://byline.network/2021/12/08-72/ 연봉 10억원 줘도 못구하는 NPU 컴파일러 개발자 - Byline Network ‘챗GPT와 AI반도체의 미래’ 스터디&네트워킹 모집합니다 (얼리버드 할인 중) NPU 기업들이 컴파일러 인재... byline.network NPU 기업들이 컴파일러 인재 찾기에 혈안이다. 퓨리오사, 리벨리온 등 국내 주요 NPU 기업 모두 컴파일러 인재 채용에 발벗고 나섰다. 아직 초기 단계인 AI반도체 시장이 활성화될 수 있는 핵심 열쇠가 컴파일러가 될 것이라는 판단에서다. NPU는 기존에 사용되던 범용 반도체에 비해 구조가 다소 복잡하다. 범용 반도체는 입력된 데이터를 순차적으로 처리하는 ‘폰 노이만(Von Neumann)’ 아키텍처를 기반으로 한다.. 2023. 2. 18.
NeurIPS 2022 Conference Comment(후기) in New Orleans, USA NeurIPS (Neural Information Processing Systems) NeurIPS는 올해로 36주년을 맞았으며 2022년에 총 2905편의 논문을 accept 하고 약 10,000여명의 사람이 학회장으로 모이는 국제 최대 AI 학회이다. 내가 지금껏 다녔던 Machine Vision 혹은 HW IC Chip 학회와는 규모가 족히 2배이상 차이난다. 특히나 구글, 애플, 아마존, Meta 등 자원이 빵빵한 기업들도 함께 paper를 쓰고 따로 기업 부스를 열어 그들의 AI 기술과 관련 인턴쉽 홍보도 하기에 분위기는 더 달아오른다. 여담으로 paper author를 대상으로 기업별 social dining도 있다. 나는 이번 학회에 논문을 따로 내지 않았기에 그 내막을 자세히 알진 못하지만.. 2022. 12. 5.
[뉴스 스크랩] 점점 커져가는 초거대 NLP AI 모델들의 크기 초거대 AI 모델 2020년 이전에는 NLP 모델 중에서 거대한 크기의 모델이 없었다. CNN 모델에 비하여 파라미터 수가 현저히 낮은 작은 크기의 모델만 존재하였다. 그러다 2020년 6월 OpenAI가 'GPT-3'라는 transformer 기반의 NLP 모델을 발표하면서 판을 뒤집었다. 초거대 AI 모델의 의미 모델의 크기가 커진다는 것은 어떤 의미일까? 모델의 크기, 즉, 학습된 신경망의 규모는 신경망이 가진 파라미터(parameter, 매개변수) 수로 측정할 수 있다. 개략적으로 말해서 AI 모델의 파라미터 수가 많을수록 모델이 학습 데이터에서 더 많은 정보를 받아들일 수 있고, 새로운 데이터에 대해서도 더 정확한 예측을 할 수 있다는 의미이다. 대분류 모델 명 Parameter(매개변수) 수 .. 2022. 3. 15.