```mermaid
flowchart TB
    subgraph "자연어 처리 전통적 접근법 (1950s~1980s)"
        RULE["규칙 기반 시스템
- 문법 규칙 수동 정의
- 전문가 지식 기반
- 확장성 한계"]
        SYM["기호주의 접근법
- 형식 언어 및 문법
- 논리 기반 추론
- 애매성 처리 어려움"]
        PARSE["구문 분석 트리
- 문장 구조 표현
- 계층적 분석
- 의미 파악 제한"]
    end
    subgraph "대수학적 기반 (1900s~)"
        LA["선형대수학
(Linear Algebra)"]
        SVD["특이값 분해
(SVD)
- 행렬을 직교행렬과 대각행렬로 분해
- 데이터의 주요 방향성 파악"]
        PCA["주성분 분석
(PCA)
- 고차원 데이터에서 중요한 구조적 정보 추출"]
        OB["직교 기저
(Orthogonal Basis)
- 벡터 공간 표현"]
        DOT["내적 연산
(Dot Product)
- 벡터 간 유사도 계산"]
        MLE["최대우도법
(Maximum Likelihood Estimation)
- 관측 데이터를 설명하는 최적의 모델 파라미터 추정"]
        IP["정보이론
(Information Theory)
- 엔트로피, 상호정보량
- 분포 간 거리 측정"]
    end
    subgraph "통계적 기법 (1980s~1990s)"
        NG["N-gram 모델
- 연속된 n개 토큰의 통계
- 마르코프 가정 기반
- 희소성 문제와 저장 공간 제약"]
        BS["Back-off & Smoothing
- 희소 데이터 처리
- 관측되지 않은 패턴 확률 추정"]
    end
    subgraph "임베딩 모델 (2013~2014)"
        NG --> W2V & GLOVE
        W2V["Word2Vec
- Skip-gram, CBOW
- 로컬 문맥 정보만 반영
- 장거리 문맥 정보 부족"]
        GLOVE["GloVe
- 단어 공기행렬 활용
- 전역 통계 반영
- 동적 상호작용 불가"]
    end
    subgraph "시퀀스 모델 (2014~2017)"
        RNN["RNN 구조
- 순환 연결
- 시퀀스 처리의 기초
- 기울기 소실/폭발 문제"]
        LSTM["LSTM & GRU
- 장기 의존성 문제 해결
- 게이트 메커니즘 도입"]
        S2S["Seq2Seq
- 고정 크기 컨텍스트 벡터
- 긴 시퀀스에서 정보 손실"]
        ATT["Attention Mechanism
- 입력 시퀀스에 동적 가중치 할당
- 정보 압축 문제 해결"]
    end
    subgraph "Transformer (2017)"
        PE["위치 인코딩
(Positional Encoding)
- 순서 정보 삽입
- 상대적/절대적 위치 표현"]
        MHA["Multi-Head Attention
- 다양한 관점의 Attention
- 서로 다른 표현 공간 학습"]
        SA["Self-Attention
- QKV 벡터의 내적과 Softmax
- 모든 토큰 쌍의 유사도 계산
- 병렬 연산과 전역 문맥 처리"]
        FFN["Position-wise Feedforward Network
- Attention 정보의 비선형 변환
- 표현력 강화"]
        LN["Layer Normalization
- 학습 안정화
- 기울기 문제 완화"]
        TF["Transformer 아키텍처
- RNN의 순차적 처리 문제 해결
- 장기 의존성 문제 해결"]
    end
    subgraph "Transformer 기반 모델 (2018~2020)"
        ELMO["ELMo
- 양방향 LSTM 활용
- 문맥적 단어 임베딩
- 전이 학습 접근법"]
        BERT["BERT
- 양방향 인코더
- 마스킹 기반 사전 학습
- 문맥적 표현"]
        GPT["GPT
- 단방향 디코더
- 자기회귀 언어 모델
- 생성 능력"]
        T5["T5
- 모든 NLP 작업을 텍스트-투-텍스트로 통합
- 다양한 손상 기법 적용"]
    end
    subgraph "Transformer 이후 발전 방향 (2020~현재)"
        SCALING["대규모화(Scaling)
- GPT-3/4/5, PaLM, LLaMA
- 수천억 파라미터 규모
- 새로운 능력 발현(Emergence)"]
        EFFIC["효율성 개선
- Performer, Reformer
- FLASH Attention
- Mixture of Experts(MoE)"]
        ARCH["아키텍처 발전
- Mamba(State Space Models)
- RetNet(Retention Network)
- Multimodal Transformers"]
        ALIGN["정렬 기술
- RLHF(인간 피드백 강화학습)
- Constitutional AI
- 다중 목표 최적화"]
    end
    SYM --> RULE --> PARSE
    SYM --> NG
    PARSE --> NG
    
    LA --> SVD & OB & DOT & MLE & IP
    IP --> NG & BS
    MLE --> NG & BS
    BS --> NG
    SVD --> PCA
    OB & DOT --> W2V & GLOVE
    PCA --> W2V & GLOVE
    MLE --> W2V & GLOVE
    NG --> W2V & GLOVE
    IP --> W2V
    W2V & GLOVE --> RNN
    RNN --> LSTM
    LSTM --> S2S
    MLE --> S2S
    S2S --> ATT
    LSTM --> ATT
    ATT --> SA & MHA
    DOT --> SA
    MLE --> SA
    PE & MHA & SA & LN & FFN --> TF
    LSTM --> ELMO
    ELMO --> BERT
    TF --> BERT & GPT & T5
    BERT & GPT & T5 --> SCALING & EFFIC & ARCH & ALIGN
    style RULE fill:#fff0e6,stroke:#333,stroke-width:1px
    style SYM fill:#fff0e6,stroke:#333,stroke-width:1px
    style PARSE fill:#fff0e6,stroke:#333,stroke-width:1px
    
    style LA fill:#f9f9f9,stroke:#333,stroke-width:1px
    style SVD fill:#f0f0ff,stroke:#333,stroke-width:1px
    style PCA fill:#f0f0ff,stroke:#333,stroke-width:1px
    style OB fill:#f0f0ff,stroke:#333,stroke-width:1px
    style DOT fill:#f0f0ff,stroke:#333,stroke-width:1px
    style MLE fill:#f0f0ff,stroke:#333,stroke-width:1px,stroke-dasharray: 5 5
    style IP fill:#f0f0ff,stroke:#333,stroke-width:1px,stroke-dasharray: 5 5
    
    style NG fill:#ffebcc,stroke:#333,stroke-width:1px
    style BS fill:#ffebcc,stroke:#333,stroke-width:1px
    
    style W2V fill:#e6f3ff,stroke:#333,stroke-width:1px
    style GLOVE fill:#e6f3ff,stroke:#333,stroke-width:1px
    
    style RNN fill:#e6ffe6,stroke:#333,stroke-width:1px
    style LSTM fill:#e6ffe6,stroke:#333,stroke-width:1px
    style S2S fill:#e6ffe6,stroke:#333,stroke-width:1px
    style ATT fill:#e6ffe6,stroke:#333,stroke-width:1px
    
    style PE fill:#ffe6e6,stroke:#333,stroke-width:1px
    style MHA fill:#ffe6e6,stroke:#333,stroke-width:1px
    style SA fill:#ffe6e6,stroke:#333,stroke-width:1px
    style FFN fill:#ffe6e6,stroke:#333,stroke-width:1px
    style LN fill:#ffe6e6,stroke:#333,stroke-width:1px
    style TF fill:#ffe6e6,stroke:#333,stroke-width:1px,stroke-dasharray: 5 5
    
    style ELMO fill:#d6f5d6,stroke:#333,stroke-width:1px
    style BERT fill:#d6f5d6,stroke:#333,stroke-width:1px
    style GPT fill:#d6f5d6,stroke:#333,stroke-width:1px
    style T5 fill:#d6f5d6,stroke:#333,stroke-width:1px
    
    style SCALING fill:#e6f7ff,stroke:#333,stroke-width:1px
    style EFFIC fill:#e6f7ff,stroke:#333,stroke-width:1px
    style ARCH fill:#e6f7ff,stroke:#333,stroke-width:1px
    style ALIGN fill:#e6f7ff,stroke:#333,stroke-width:1px
```