- 텍스트(문장, 단락, 문서 등)를 고차원 실수 벡터(예: 768차원, 1536차원)로 변환하는 기술 - 이 벡터는 의미적 유사도를 반영하도록 학습되어 있어서, 서로 의미가 비슷한 문장은 벡터 공간에서 가깝다 - 고정 길이 : 모든 문장은 768차원 같은 고정된 벡터로 변환됨 - 의미 기반 거리 : 코사인 유사도(cosine similarity)로 의미적...
단순 Bag-of-Words가 아니라 Transformer 기반 문장 의미 표현이기 때문에 검색 품질이 매우 높음
결론
검색 과정은 다음과 같다
[사용자 질문] -> 임베딩 생성 -> 벡터 DB 검색 -> 결과 변환왜 매번 생성해야 하는가?
즉, 사용자 입력은 사전에 임베딩해둘 수 없어서 실시간 임베딩 생성이 필수
text-embedding-3-small 기준
방법A. 자체 임베딩 모델 로컬/온프레미스 구축
bge-large, multilingual-e5-large)등을 GPU 서버에 띄우기방법B. 임베딩 캐싱
**방법C. Hybrid Search로 임베딩 요청 횟수 줄이기 **
embedding-3-large로 만든 벡터는 1536차원에서 특정 방향 의미를 가짐bge-large는 1024차원에서 완전히 다른 공간 구조를 가짐