AI Engineering 용어집¶
이 페이지는 AI Engineering 코스의 핵심 용어 모음입니다. 각 항목은 ISO 11179 형식(Definition / Source / Related / Example / See also) 을 따릅니다.
A¶
Agent¶
- Definition. LLM 을 의사결정 엔진으로 사용해 도구 호출 · 메모리 · 단계별 계획을 통해 다단계 task 를 자율적으로 수행하는 시스템.
- Source. Common AI engineering usage; ReAct paper (Yao et al., 2022).
- Related. Tool, Memory, Planner, ReAct.
- Example. "Repo 검색 → 코드 작성 → 테스트 실행 → 실패 시 수정" 루프를 반복하는 코딩 agent.
- See also. Module 05.
ANN (Approximate Nearest Neighbor)¶
- Definition. 정확한 nearest neighbor 검색 대신 약간의 정확도를 양보하여 대규모 벡터에서 빠르게 후보를 찾는 알고리즘 군.
- Source. Information retrieval literature.
- Related. FAISS, HNSW, IVF, PQ.
- Example. 1억 임베딩에서 top-10 검색을 1ms 안에 수행.
- See also. Module 03.
C¶
Chain-of-Thought (CoT)¶
- Definition. LLM 이 최종 답을 내기 전에 중간 추론 단계를 출력하도록 prompt 로 유도하는 기법.
- Source. Wei et al., 2022.
- Related. Few-shot, Self-Consistency.
- Example. "Let's think step by step" 한 줄 추가만으로 GSM8K 수학 문제 정확도가 크게 오른다.
- See also. Module 02.
Context Window¶
- Definition. LLM 이 한 번의 호출에서 입력으로 받을 수 있는 토큰 수의 상한.
- Source. LLM specifications (e.g., GPT-4, Claude).
- Related. Token, KV Cache, Long-Context.
- Example. Claude 3 Opus 200k tokens, GPT-4 Turbo 128k tokens.
- See also. Module 01.
E¶
Embedding¶
- Definition. 텍스트(또는 이미지/코드) 를 의미가 보존되도록 고정 차원의 실수 벡터로 변환한 표현.
- Source. Common deep learning terminology.
- Related. Cosine Similarity, Vector DB, BGE.
- Example. "고양이" 와 "냥이" 임베딩의 cosine 유사도가 0.9 이상.
- See also. Module 03.
F¶
FAISS¶
- Definition. Facebook AI Research 가 공개한 대규모 ANN 검색 라이브러리로 IVF/HNSW/PQ 등의 인덱스를 제공한다.
- Source. Johnson et al., 2017.
- Related. ANN, Vector DB.
- Example.
index.search(query, k=10)한 줄로 top-10 검색. - See also. Module 03.
Few-shot Learning (In-Context)¶
- Definition. 모델 가중치를 변경하지 않고 prompt 안에 예시를 몇 개 보여주어 모델 동작을 desired pattern 에 맞추는 방식.
- Source. Brown et al., 2020 (GPT-3 paper).
- Related. Zero-shot, CoT.
- Example. 분류 prompt 안에 (입력, 라벨) 쌍을 5개 동봉.
- See also. Module 02.
Fine-tuning¶
- Definition. 사전학습된 LLM 의 가중치를 도메인 데이터로 추가 학습시켜 형식·스타일·라벨 분포를 모델 내재화하는 방법.
- Source. Standard transfer learning.
- Related. LoRA, PEFT, RAG, Prompt.
- Example. SystemVerilog 코드 데이터셋으로 LoRA fine-tune.
- See also. Module 06.
H¶
Hallucination¶
- Definition. LLM 이 사실과 무관한 그러나 그럴듯한 출력을 생성하는 현상.
- Source. Common LLM failure mode.
- Related. RAG, Faithfulness, Grounding.
- Example. 존재하지 않는 SystemVerilog 시스템 함수 이름을 자신 있게 호출.
- See also. Module 04.
L¶
LLM (Large Language Model)¶
- Definition. Transformer 기반의 대규모 사전학습 언어 모델로, 입력 토큰 시퀀스로부터 다음 토큰의 확률 분포를 출력한다.
- Source. Common AI literature; GPT-3 (Brown et al., 2020).
- Related. Transformer, Token, Context Window.
- Example. GPT-4, Claude 3, Llama 3.
- See also. Module 01.
M¶
MCP (Model Context Protocol)¶
- Definition. Anthropic 이 제안한 LLM-도구 인터페이스 표준으로, 동일한 도구를 여러 에이전트/IDE 가 재사용할 수 있게 한다.
- Source. Anthropic, 2024.
- Related. Tool, Agent.
- Example. FAISS 검색 도구를 MCP server 로 노출 → Claude Code, VS Code 모두에서 사용.
- See also. Module 05.
MoE (Mixture of Experts)¶
- Definition. 모든 입력 토큰을 모든 파라미터에 통과시키지 않고, 라우터가 선택한 일부 expert 만 활성화하는 sparse 아키텍처.
- Source. Shazeer et al., 2017; Mixtral.
- Related. Sparse model, Top-K routing.
- Example. Mixtral 8x7B 는 47B 총 파라미터 중 토큰당 13B 만 사용.
- See also. Module 01.
P¶
Prompt Engineering¶
- Definition. LLM 의 가중치를 변경하지 않고 입력(prompt) 의 구조·예시·지시문을 설계하여 출력 품질을 개선하는 작업.
- Source. Common practice.
- Related. Few-shot, CoT, System Prompt.
- Example. 역할 지정 + 출력 형식 지정 + few-shot 예시.
- See also. Module 02.
Q¶
Quantization¶
- Definition. 모델 가중치/활성을 더 낮은 비트(INT8, INT4 등) 로 표현하여 메모리/연산 비용을 줄이는 기법.
- Source. Common deep learning optimization.
- Related. AWQ, GPTQ, GGUF.
- Example. Llama 3 70B 를 INT4 로 ~35GB 로 줄여 A100 1장에서 실행.
- See also. Module 01.
R¶
RAG (Retrieval-Augmented Generation)¶
- Definition. 사용자 질의에 대해 외부 지식 베이스에서 관련 컨텍스트를 검색해 LLM 입력에 주입함으로써 답변의 사실성과 최신성을 강화하는 아키텍처.
- Source. Lewis et al., 2020.
- Related. Embedding, Vector DB, Hybrid Search.
- Example. "사내 spec 문서를 검색해 답변하는 챗봇".
- See also. Module 04.
ReAct¶
- Definition. Reasoning(생각) 과 Acting(도구 호출) 을 번갈아 가며 작동하는 agent 패턴.
- Source. Yao et al., 2022.
- Related. Plan-and-Execute, Reflexion, Tool-use.
- Example. "검색 → 결과 reasoning → 다음 검색" 의 반복.
- See also. Module 05.
Re-ranking¶
- Definition. 1차 검색의 top-N 결과를 cross-encoder 등 정밀 모델로 재정렬하여 상위 결과의 정확도를 끌어올리는 단계.
- Source. Information retrieval literature.
- Related. Cross-encoder, BM25, Hybrid Search.
- Example. ANN top-20 → cross-encoder → top-5.
- See also. Module 04.
S¶
Self-Consistency¶
- Definition. 같은 prompt 로 LLM 을 여러 번 샘플링한 후 다수결/투표로 최종 답을 정하여 robustness 를 높이는 기법.
- Source. Wang et al., 2022.
- Related. CoT, Sampling Temperature.
- Example. 수학 문제를 5번 풀려서 가장 많이 나온 답 채택.
- See also. Module 02.
T¶
Token¶
- Definition. LLM 이 처리하는 최소 입력 단위로, 단어/서브워드/문자 단위로 정의된다 (BPE, SentencePiece 등).
- Source. Common NLP terminology.
- Related. Tokenizer, Context Window, BPE.
- Example. "ChatGPT" 는 BPE 로 ["Chat", "G", "PT"] 같이 분할될 수 있다.
- See also. Module 01.
Transformer¶
- Definition. Self-Attention 과 FFN 블록을 쌓아 입력 시퀀스 토큰 간 관계를 모델링하는 신경망 아키텍처.
- Source. Vaswani et al., 2017.
- Related. Self-Attention, Position Embedding, FFN.
- Example. GPT, BERT, Llama 모두 Transformer 기반.
- See also. Module 01.
Tool (Agent context)¶
- Definition. Agent 가 호출 가능한 외부 함수/API/도메인 동작으로, 입력 schema 와 출력 형식이 명확히 정의된 인터페이스.
- Source. Common agent literature.
- Related. MCP, Function Calling.
- Example.
search_repo,run_simulation,analyze_log. - See also. Module 05.