콘텐츠로 이동

AI Engineering for DV — 개요 및 컨셉 맵

학습 플랜

  • 레벨: Intermediate → Advanced (RAG/FAISS 실무 구축 경험 + DVCon/DAC 논문 기반)
  • 목표: LLM/RAG/Agent 아키텍처를 화이트보드에 그리며, DV 도메인 적용 전략과 트레이드오프를 논리적으로 설명할 수 있는 수준

핵심 용어집 (Glossary)

모델 아키텍처

약어 풀네임 설명
LLM Large Language Model 수십억~수천억 파라미터의 대규모 언어 모델
Transformer Transformer Architecture Self-Attention 기반 신경망 아키텍처, RNN 대비 병렬화에 유리
Self-Attention Self-Attention Mechanism 입력 토큰 간 상호 의존성을 학습하는 메커니즘 (Q·K·V 연산)
MoE Mixture of Experts Sparse 활성화로 대규모 모델을 효율적으로 구현하는 구조
FFN Feed-Forward Network Transformer 내 비선형 변환 레이어
BPE Byte-Pair Encoding 빈도 기반 서브워드 토큰화 방식

최적화 기법

약어 풀네임 설명
KV Cache Key-Value Cache 이전 토큰의 K,V를 캐싱하여 재계산 방지
GQA Grouped-Query Attention 쿼리와 키/값 헤드 수 비율을 최적화하여 메모리 절감
Flash Attention GPU 메모리 계층 최적화로 Attention 연산 가속
RoPE Rotary Position Embedding 상대 위치를 벡터 회전으로 인코딩하는 기법

학습 & 파인튜닝

약어 풀네임 설명
SFT Supervised Fine-Tuning 지시 따르기 능력을 강화하는 지도 학습
RLHF Reinforcement Learning from Human Feedback 인간 선호도 기반 정렬 학습
DPO Direct Preference Optimization Reward Model 없이 직접 선호도를 학습
LoRA Low-Rank Adaptation 0.1~1% 파라미터만 학습하는 경량 파인튜닝
Quantization FP32→INT8→INT4로 정밀도를 줄여 모델 경량화

프롬프트 엔지니어링 & 추론

약어 풀네임 설명
ICL In-Context Learning 프롬프트 내 예시로 패턴을 학습하는 방식 (Zero/Few-shot)
CoT Chain-of-Thought 단계별 추론 과정을 명시적으로 생성하는 기법
RAG Retrieval-Augmented Generation 외부 지식을 검색하여 프롬프트에 삽입 후 답변 생성
ReAct Reasoning + Acting Thought-Action-Observation 루프 기반 Agent 패턴

임베딩 & 벡터 DB

약어 풀네임 설명
Embedding Text Embedding 텍스트를 의미 보존 고차원 벡터로 변환
FAISS Facebook AI Similarity Search Meta의 벡터 유사도 검색 라이브러리
Vector DB Vector Database 벡터를 저장하고 유사도 기반 검색하는 데이터베이스

DV 도메인 연결

약어 풀네임 설명
V-Plan Verification Plan 검증 목표, 시나리오, 커버리지를 정의하는 전략 문서
IP-XACT IP eXtensible Attributes and Constraints IP 메타데이터(주소 맵, 레지스터) 표준 XML 형식
MCP Model Context Protocol LLM과 외부 도구를 연결하는 표준 프로토콜
Function Calling LLM이 JSON으로 도구 호출을 명시하는 기능

컨셉 맵

                    +-------------------+
                    |    LLM 기본 구조   |
                    | (Transformer/Attn)|
                    +---------+---------+
                              |
            +-----------------+-----------------+
            |                 |                 |
   +--------+------+  +------+-------+  +------+--------+
   | Prompt Eng.   |  | RAG          |  | Fine-tuning   |
   | & In-Context  |  | (검색 증강)  |  | (모델 학습)   |
   | Learning      |  |              |  |               |
   +--------+------+  +------+-------+  +------+--------+
            |                 |                 |
            |          +------+-------+         |
            |          | Embedding &  |         |
            |          | Vector DB    |         |
            |          | (FAISS)      |         |
            |          +------+-------+         |
            |                 |                 |
            +-----------------+-----------------+
                              |
                    +---------+---------+
                    |   Agent 아키텍처  |
                    | (Tool/Plan/Memory)|
                    +---------+---------+
                              |
                    +---------+---------+
                    | DV/EDA 도메인     |
                    | 적용 사례         |
                    +-------------------+

학습 단위 (Units)

# 단위 핵심 질문
1 LLM 기본 구조 Transformer와 Attention은 어떻게 동작하고, 왜 강력한가?
2 Prompt Engineering & In-Context Learning LLM의 출력을 어떻게 제어하고 최적화하는가?
3 Embedding & Vector DB (FAISS) 텍스트를 벡터로 변환하고 유사도를 어떻게 검색하는가?
4 RAG (Retrieval-Augmented Generation) 외부 지식을 LLM에 어떻게 주입하고, 왜 Fine-tuning 대신 사용하는가?
5 Agent 아키텍처 LLM이 도구를 사용하고 계획을 세우는 자율 시스템은 어떻게 구축하는가?
6 Fine-tuning vs RAG vs Prompt — 전략 선택 언제 어떤 접근법을 선택해야 하는가?
7 DV/EDA 도메인 적용 AI를 검증 자동화에 어떻게 적용했고, 어떤 성과를 냈는가?

이력서 연결 포인트

이력서 항목 관련 Unit 면접 시 활용
RAG & FAISS (DVCon 2025) Unit 3, 4, 7 IP DB 인덱싱 → 검증 시나리오 매핑
LLM-Based Test Generation Unit 1, 2, 7 테스트 명령/V-Plan 자동 생성
Hybrid Data Extraction Unit 4, 7 IP-XACT + 시맨틱 → RAG 파이프라인
AI-Assisted UVM 자동화 (DAC 2026) Unit 5, 7 UVM 컴포넌트 자동 생성
AI Expert (삼성+서울대) 전체 AI 전문성의 공식 자격 증명
293/216 Gap 발견 Unit 4, 7 정량적 성과 (2.75% / 4.99% gap rate)