반응형

2025/05 2

Self Attention, Cross Attention 차이점

Self Attention문장 내부에서 자기자신과 Cross AttentionCross-Attention은 Transformer 모델에서 디코더가 인코더의 출력을 참조하여 정보를 얻는 메커니즘입니다. 이는 디코더가 현재 생성 중인 출력과 관련된 입력의 부분에 집중할 수 있게 도와줍니다. 예를 들어, 기계 번역에서 영어 문장을 힌디어로 번역할 때, 디코더는 이미 생성된 단어들과 입력 문장의 관련 부분을 동시에 고려하여 다음 단어를 생성합니다.입력 준비:두 개의 입력 시퀀스(예: 이미지 패치 시퀀스와 텍스트 시퀀스)를 준비합니다.Query, Key, Value 생성:디코더의 출력에서 Query를 생성하고, 인코더의 출력에서 Key와 Value를 생성합니다.GeeksforGeeksAttention 계산:..

카테고리 없음 2025.05.27

[Dataset] Holopix50k

Holopix50k 데이터셋은 약 49,368쌍의 스테레오 이미지 페어로 구성되어 있으며, 다양한 실제 환경에서 촬영된 이미지들을 포함하고 있어 COCO 데이터셋과 유사한 다양성을 제공합니다. 이러한 특성으로 인해 스테레오 비전, 깊이 추정, 스타일 변환 등 다양한 컴퓨터 비전 과제에 활용될 수 있습니다. 데이터셋 구성총 이미지 수: 약 49,368쌍의 스테레오 이미지 페어해상도: 720p(HD) 및 360p(SD) 해상도의 이미지 포함장면 다양성: 실내, 실외, 인물, 사물, 풍경 등 다양한 장면 포함촬영 환경: 모바일 앱 Holopix™를 통해 수집된 실제 환경의 이미지 다운로드 방법 Holopix50k 데이터셋은 GitHub에서 제공하는 스크립트를 통해 다운로드할 수 있습니다. Linux 또는 ..

카테고리 없음 2025.05.01
반응형