fp16, fp32는 숫자를 컴퓨터 안에서 어떻게 표현하느냐(부동소수점 형식)를 말하는 데이터 타입 이름쉽게 말해 소수점을 몇 비트로 저장하느냐의 차이기본 개념FP = floating point (부동소수점). 실수(소수점 있는 숫자)를 표현하는 표준 형식.뒤 숫자는 총 비트 수를 의미함.FP32: 32비트 = 4바이트, 흔히 쓰는 float / single precision.FP16: 16비트 = 2바이트, half precision이라고 부름왜 중요한가 (딥러닝 관점)비트 수가 많을수록표현 가능한 숫자 범위·정밀도가 커짐 → 연산이 더 정확하고 학습이 안정적.대신 메모리 2배, 연산량도 증가.비트 수가 적을수록메모리·연산은 절약되고 속도는 빨라지지만표현 범위/정밀도가 줄어서 작은 gradient가..