반응형

Git-flow를 쓰다 보면 hotfix를 main 브랜치에 먼저 반영해야 하는 경우가 있습니다.
그런데 이 수정 사항을 develop에도 별도의 commit으로 넣어두면,
나중에 develop → main 머지할 때 문제가 생기곤 합니다.


 

문제 상황

develop -> main branch로 merge하기 위해 pr올린 상황에서 두 브랜치에서 같은 코드 부분이 변경된 이력으로 표시되는 문제가 발생했다. git에 문제가 생겼나 의심하면서 다시 pr을 올려봤지만 동일한 현상은 계속 발생했습니다.

  1. main에서 hotfix 진행
git checkout main
# 버그 수정
git commit -m "hotfix: critical bug fix"
git push origin main

 

2. develop에도 동일한 수정을 별도 commit으로 추가

git checkout develop
# 동일 수정
git commit -m "fix: same bug fix on develop"
git push origin develop

3. 이렇게 되면 코드 내용은 같아도 commit hash가 다르기 때문에 나중에 develop → main 머지 시 충돌(conflict)이나 중복 diff가 발생할 수 있습니다.


올바른 해결 방법

핵심은 main의 hotfix commit을 develop으로 merge 해주는 것입니다.

git checkout develop
git merge main

정상적으로 merge되면 아래처럼 메시지가 뜹니다.

Merge made by the 'ort' strategy.

이 상태에서는 main과 develop이 동일한 commit을 공유하기 때문에, 나중에 develop → main 머지할 때 문제가 발생하지 않습니다.

 

'ort' strategy란?

Git 2.34부터 기본 머지 전략이 recursive에서 ort로 바뀌었습니다.

  • ort = Optimal Recursive Technique
  • 장점:
    • 이전보다 훨씬 빠른 머지 성능
    • 충돌 처리 로직 단순화
    • 더 직관적인 결과 제공

따라서 "Merge made by the 'ort' strategy."는 최신 Git에서 정상적으로 merge가 수행되었다는 의미입니다.

 

정리

  • hotfix는 무조건 main에서 처리
  • hotfix 후에는 반드시 main → develop merge 진행 및 
  • develop에 동일한 수정을 별도 commit으로 만들면 안 됨

이 원칙만 지키면, main–develop 사이에서 꼬이는 문제를 피할 수 있습니다.

반응형
반응형

1. 들어가며

ORM(Object Relational Mapping)은 개발자가 SQL을 직접 작성하지 않고 객체지향적으로 DB를 다룰 수 있게 해줍니다.
하지만 ORM을 처음 쓰면 거의 모두가 마주치는 문제가 있습니다. 바로 N+1 문제입니다.

저 역시 프로젝트를 진행하면서 이 문제를 겪었고, 단순한 최적화를 넘어서 실제 데이터가 많아지면 어떻게 되는지 궁금했습니다.
그래서 이번 글에서는 N+1 문제 → 로딩 전략 선택 → 실제 AWS 환경에서 간단히 실험한 결과를 공유하려 합니다.


2. N+1 문제를 직접 겪다

예제로 User(작성자) – Post(게시글) 구조를 생각해 봅시다. User와 Post는 1:N 관계로 한 유저가 여러 포스트를 작성할수 있어요.

users 테이블

id name
1 Choi
2 Kim
3 Yim
4 Lee

posts 테이블

id title user_id content
1 Hello World 1 안녕??....................
2 ORM is awesome 2 ORM 은 너무 멋지다~..........
3 N+1 problem sucks 1 N+1 뭐냐 ..........
4 SQLAlchemy Tips 3 SQLalchmey는 이렇게 사용할 수 있어요! ...
5 Python is beautiful 4 Python은 너무 아름답다 그 이유는 ...

 

SQLalchemy를 활용해 ORM Model은 아래처럼 만들 수 있어요.

from sqlalchemy import Column, Integer, String, Text, ForeignKey
from sqlalchemy.orm import declarative_base, relationship

Base = declarative_base()

class User(Base):
    __tablename__ = "users"

    id = Column(Integer, primary_key=True, autoincrement=True)
    name = Column(String(50), nullable=False)

    # 역참조 (User.posts 로 접근 가능)
    posts = relationship("Post", back_populates="user")


class Post(Base):
    __tablename__ = "posts"

    id = Column(Integer, primary_key=True, autoincrement=True)
    title = Column(String(200), nullable=False)
    content = Column(Text)
    user_id = Column(Integer, ForeignKey("users.id"), nullable=False)

    # User와 관계 설정 (Post.user 로 접근 가능)
    user = relationship("User", back_populates="posts")

 

N+1 발생 상황

모든 포스트에 대해서, 포스트 제목과 포스트를 작성한 사람의 이름을 같이 출력할 때 아래와 같이 작성할 수 있습니다. 포스트가 100개라고 가정할 때,

# N+1 발생 예시 (SQLAlchemy)
posts = session.query(Post).limit(100).all()
for post in posts:
    print(post.title, post.user.name)  # 여기서 user 접근 시마다 추가 쿼리

 위 경우 실제 실행되는 SQL 쿼리문은 아래와 같아요.

SELECT * FROM posts LIMIT 100;             -- 1번
SELECT * FROM users WHERE id=1;            -- 2번
SELECT * FROM users WHERE id=2;            -- 3번
SELECT * FROM users WHERE id=3;            -- 4번
...
SELECT * FROM users WHERE id=N;          -- N+1번

100+1번(N+1번) 쿼리 실행 → 데이터가 늘어날수록 기하급수적으로 느려집니다. 저도 실제로 이 문제 때문에 API 응답 속도가 수십 초까지 늘어나는 경험을 했습니다.

 

3. 해결 방법: 로딩 전략 선택

ORM에서는 relationship을 가져올 때 다양한 로딩 전략을 선택할 수 있습니다. 대표적인 것이 두 가지입니다.

3.1 Fetch Join (joinedload)

fetch join은 JPA/Hibernate(JAVA ORM)에서 온 개념인데, join을 통해 연관된 엔티티(객체)를 미리 가져온다는 개념입니다. SQLAlchemy도 같은 개념을 차용해서 joinedload 옵션을 제공하고, 이것을 흔히 "Fetch Join"이라고 부릅니다.

from sqlalchemy.orm import joinedload

posts = (
    session.query(Post)
    .options(joinedload(Post.user))
    .limit(100)
    .all()
)

for post in posts:
    print(post.title, post.user.name)  # 여기서 user 접근 시마다 추가 쿼리 없음

 

위 코드는 Postgres 기준으로 아래의 SQL query문이 실행됩니다.

SELECT posts.id AS posts_id,
       posts.title AS posts_title,
       posts.content AS posts_content,
       posts.user_id AS posts_user_id,
       users_1.id AS users_1_id,
       users_1.name AS users_1_name
FROM posts
LEFT OUTER JOIN users AS users_1 ON users_1.id = posts.user_id
LIMIT 100;

쿼리 1번으로 Post와 User를 JOIN 해서 모두 가져오는 의미로 Python에서 post.user.name 접근할 때 추가적으로 쿼리가 발생하지 않습니다.

Fetch Join은 쿼리 1번으로 해결되지만, 1:N 관계에서는 row 중복이 발생할 수 있습니다. 위와 달리, User 기준으로 posts를 가져올때, 아래와 같이 joinedload를 쓸수있는데요.

from sqlalchemy.orm import joinedload

users = (
    session.query(User)
    .options(joinedload(User.posts))
    .limit(100)
    .all()
)

for user in users:
    for post in user.posts:
        print(user.name, post.title)

 

실행되는 SQL

SELECT users.id AS users_id, users.name AS users_name,
       posts_1.id AS posts_1_id, posts_1.title AS posts_1_title, posts_1.content AS posts_1_content, posts_1.user_id AS posts_1_user_id
FROM users
LEFT OUTER JOIN posts AS posts_1 ON users.id = posts_1.user_id
LIMIT 100;

 

결과테이블

users.id  users.name  posts_1_id  posts_1_title posts_1_content posts_1_user_id
1 Choi 1 Hello World 안녕??.............. 1
1 Choi 3 N+1 problem sucks N+1 뭐냐 .......... 1
2 Kim 2 ORM is awesome ORM 은 너무 ........ 2
3 Yim 4 SQLAlchemy Tips SQLalchmey는 ... 3
4 Lee 5 Python is beautiful Python은 ..... 4

여기서 문제는 User 데이터가 Post 수만큼 중복 포함된다는 점입니다.

  • Choi가 2개의 글을 썼다면 row 2개에서 Choi가 중복됨.
  • 만약 Choi가 1만 개의 글을 썼다면, User 데이터도 1만 번 반복됨.
  • LIMIT 기준도 row에 적용돼서 의도한 User 개수와 맞지 않을 수 있음.

 

3.2 Select IN (selectinload)

위와 같이 User기준으로 Posts를 가져올때는 selectedinload를 사용하는게 더 효과적입니다.

from sqlalchemy.orm import selectinload

users = (
    session.query(User)
    .options(selectinload(User.posts))
    .limit(100)
    .all()
)

for user in users:
    for post in user.posts:
        print(user.name, post.title)

실행되는 SQL

-- 1. users 조회
SELECT users.id AS users_id, users.name AS users_name
FROM users
LIMIT 100;

-- 2. posts 조회 (IN 조건)
SELECT posts.id AS posts_id, posts.title AS posts_title, posts.user_id AS posts_user_id
FROM posts
WHERE posts.user_id IN (1, 2, 3, 4, 5);

쿼리가 2번실행되지만 User와 Post를 분리해서 전송하기 때문에 User 관련 중복데이터 전송이 없습니다.

 

4. 실제 AWS 환경에서의 실험

이론적으로만 이해하는 것이 아니라, 실제로 데이터가 많아지면 얼마나 성능 차이가 나는지 확인해보고 싶었습니다. 그래서 간단한 실험 환경을 AWS에 구성했습니다.

실험 환경

  • EC2: Ubuntu 20.04, Python 3.10
  • RDS: PostgreSQL, db.t3.medium
  • 라이브러리: SQLAlchemy, psycopg2
  • 데이터 규모:
    • Users: 1,000명 (고정)
    • Posts: 1천 → 1만 → 5만 → 10만 개까지 점진적으로 증가

4.1 실험 방법

  1. N+1: Post를 불러온 뒤 post.user에 접근 → User 쿼리가 매번 실행됨
  2. Fetch Join (joinedload): Post와 User를 JOIN으로 한 번에 가져옴
  3. Select IN (selectinload): Post를 먼저 불러온 뒤, 필요한 User만 IN 조건으로 추가 조회

각 방식으로 같은 수의 Post를 조회하고, 실행 시간을 비교했습니다.

4.2 실험 결과

아래 표는 같은 Post 수를 조회했을 때 걸린 시간입니다.

Posts 수 N+1 방식 joinedload selectinload
1,000 1.55초 0.023초 0.038초
10,000 2.73초 0.17초 0.12초
50,000 3.72초 0.77초 0.66초
100,000 6.34초 1.47초 1.50초

 

4.3 결과 해석

  • N+1
    • Post가 만개만 되어도 이미 2초 가까이 소요.
    • 5만 건부터는 3초 이상 걸림
    • → 작은 데이터셋에서는 눈치 못 채다가, 데이터가 늘면 성능이 폭발적으로 나빠지는 전형적인 N+1 문제.
  • Fetch Join
    • User를 JOIN해서 한 번에 가져오기 때문에 N+1보다 압도적으로 빠름.
    • Post 수가 늘어도 안정적으로 1초~2초 수준에서 처리 가능.
  • Select IN
    • Post를 먼저 조회하고 필요한 User를 IN 조건으로 가져오기 때문에, Fetch Join보다 쿼리 한 번이 더 많음.
    • 하지만 User 데이터가 중복 포함되지 않아서 대량 데이터에서 더 안정적.
    • 이번 실험에서 10만 건 기준으로 Fetch Join과 비슷한 속도를 보임

 

5. 마무리

이번 글에서는 ORM을 사용할 때 흔히 맞닥뜨리는 N+1 문제를 직접 재현하고,
SQLAlchemy의 Fetch Join(joinedload) 과 Select IN(selectinload) 을 통해 성능이 얼마나 개선되는지 확인했습니다.

중요한 것은 “쿼리 속도 몇 초 차이”가 아니라,
N+1 구조는 데이터가 커지면 절대 확장될 수 없다는 점입니다.
따라서 ORM을 쓸 때는 반드시 로딩 전략을 의식적으로 선택해야 하며, 상황에 맞는 방법을 쓰는 습관이 필요합니다.

 

반응형
반응형

최근 프로젝트에서 JSONB 타입 컬럼(auto_generated_tags)을 사용하면서 꽤 혼란스러운 상황을 겪었습니다.
DB를 조회해 보니 일부 데이터가 null로 표시되었는데, 실제로는 JSONB 내부에 "null" 값이 들어간 경우였습니다.

  • JSON "null" → 컬럼 값은 존재하지만 내용이 JSON으로 "null"을 가지고 있음

처음엔 단순히 null로 표시된 걸 '{}' 로 변경하기 위해 아래처럼 쿼리했습니다.

UPDATE product_sample_images
SET auto_generated_tags = '{}'::jsonb
WHERE auto_generated_tags IS NULL;

하지만 결과적으로 여전히 null이 보였습니다. 왜냐하면 "null" 문자열은 IS NULL로 걸리지 않기 때문입니다.
이 문제를 해결하려면 다음과 같이 타입 캐스팅 후 체크가 필요했습니다:

UPDATE product_sample_images
SET auto_generated_tags = '{}'::jsonb
WHERE auto_generated_tags::text = 'null';


결론적으로, PostgreSQL의 NULL과 JSON의 "null"은 전혀 다르네요.

 

왜 이런 차이가 생길까? 그리고 ::는 뭘까?


PostgreSQL에서 JSONB 컬럼은 단순 문자열이 아니라 JSON 구조체를 내부적으로 파싱해 저장합니다.
이때 두 가지 상황이 발생합니다:

  1. DB 자체 NULL
    • 해당 컬럼에 값이 아예 없는 상태
    • SQL에서 IS NULL로 확인 가능
  2. JSON 내부 "null"
    • JSON 구조체의 값이 null로 저장된 상태
    • SQL 입장에서는 값이 있음 → 따라서 IS NULL에 걸리지 않음

결국 IS NULL은 DB 차원의 null만 잡을 뿐, JSON 내부 값은 따로 처리해야 합니다.

 

::는 무엇인가?


PostgreSQL에서는 :: 연산자가 타입 캐스팅(type casting) 을 의미합니다.
즉, 데이터를 다른 타입으로 변환하는 기능입니다.

예를 들어:

SELECT 123::text;         -- 숫자 123 → 문자열 '123'로 변환
SELECT '{}'::jsonb;       -- 문자열 '{}' → JSONB 객체로 변환
 

이렇게 하면 내부 구조를 문자열로 풀어서 "null"인지 확인할 수 있습니다.

JSONB 컬럼을 비교할 때도 마찬가지입니다:

 
WHERE auto_generated_tags::text = 'null';

이렇게 하면 내부 구조를 문자열로 풀어서 "null"인지 확인할 수 있습니다.

TL;DR:

- PostgreSQL에서 NULL과 JSON "null"은 다르다.
- "null" 처리는 jsonb 타입에 대해서 auto_generated_tags::text = 'null' 와 같은 타입 캐스팅이 필요하며, ::는 PostgreSQL의 타입 변환 연산자다.

반응형

'SQL' 카테고리의 다른 글

[SQL] 데이터 수정 (UPDATE, SET)  (0) 2022.02.23
[SQL] 테이블 삭제 (DELETE FROM)  (0) 2022.02.23
[SQL] 데이터 삽입 (INSERT INTO)  (0) 2022.02.22
[SQL] 하위 쿼리( Sub-query)  (0) 2022.02.22
[SQL] 테이블 행 합치기 (UNION)  (0) 2022.02.22
반응형

Superb Platform과 Apps

우리 회사 플랫폼의 제품군은 크게 Label, Curate, Model, 그리고 Apps로 구성되어 있다.

고객이 업로드한 이미지나 비디오에서 Curate를 통해 데이터를 선별하고, Label에서 라벨을 붙이고, Model에서 AI 모델을 학습시켜 플랫폼 사용자는 나만의 Vision AI 모델을 손쉽게 API 형태로 사용할 수 있다.

그중 Apps는 고객이 플랫폼을 더 쉽고 유연하게 활용할 수 있도록 돕는 자동화 도구들을 제공한다.

주요 목적은 다음과 같다:

  • 기존에 다른 라벨링 툴에서 작업한 데이터를 Superb Platform 에 업로드
    • (ex. YOLO, COCO, Labelme 등 다양한 어노테이션 포맷 → Superb 형식으로 자동 변환 후 플랫폼에 업로드)
  • 이미지에서 사람 얼굴을 감지하고 자동으로 비식별화(blur)
  • OCR로 텍스트 영역을 자동 감지하고 바운딩 박스를 생성

즉, 고객이 “이사”오는 과정에서 겪는 여러 번거로운 과정을 자동화함으로써 onboarding을 부드럽게 만든다.

Apps는 어떻게 실행되는가?

Apps는 여러 기능들을 개별 app 형태로 제공하는 Superb Platform의 구성 요소이며, 각 app은 독립적인 컨테이너로 실행되어 Kubernetes 상에서 운영된다. 실행 흐름은 다음과 같다:

  1. 사용자가 웹 프론트를 통해 데이터를 업로드하면, 해당 파일은 S3에 저장된다.
  2. 지정된 app이 실행되어 S3의 입력 데이터를 내려받아 처리한다.
  3. 처리 결과는 다시 S3에 업로드되거나, 다운로드 링크 또는 플랫폼 내 리소스로 제공된다.
  4. 이 모든 과정은 Apps의 백엔드 서버와의 통신을 통해 상태 및 진행 상황이 관리된다.

개별 app은 다양한 개발자가 만들지만, 공통된 실행 흐름과 시스템 환경을 모두 이해해야만 동작하도록 만들고 싶지는 않았다.

AppWrapper의 목적은 앱 실행에 필요한 공통 작업들을 추상화하여, 개발자가 비즈니스 로직에만 집중할 수 있게 하는 것이었다.

하지만 이 실행 흐름은 단순해 보이는 것과 달리, 환경 설정, presigned URL 요청, 오류 처리, 결과 업로드 등을 앱마다 수작업으로 구현하면 유지보수와 품질 관리가 매우 어려워진다.


AppWrapper의 역할

Apps의 실행 흐름에는 파일 다운로드, 결과 업로드, 상태 보고 등 반복되는 작업이 필수적으로 포함된다. 이런 공통 작업을 자동으로 처리해주는 유틸리티가 바로 AppWrapper다.

AppWrapper는 클래스 데코레이터 방식으로 동작하며, 다음과 같은 실행 흐름을 관리한다:

앱 실행 전 (Pre-Processing)

  • 앱 실행에 필요한 입력 파일 목록파일 저장 경로, 작업 ID 등의 실행 정보를 시스템으로부터 전달받는다.
  • 전달받은 정보를 기반으로, 사용자가 웹에서 업로드한 파일들을 S3에서 가져와 Pod의 로컬 디렉터리에 저장한다. (정확히는 emptyDir 형태)
  • 만약 실행 준비 중 오류가 발생하면, 해당 작업은 즉시 실패 처리되고 상태가 백엔드로 보고된다.

앱 실행 중

  • 개발자가 작성한 process() 함수를 호출하여 실제 비즈니스 로직을 수행한다.
  • 예를 들어 다음과 같이 간단히 작성할 수 있다:
@AppWrapper()
def process():
    # 예: YOLO 라벨 포맷을 Superb 포맷으로 변환
    return {
        "type": "download",
        "file_path": "/tmp/converted.zip"
    }
    
process()

실행 후 (Post-Processing)

  • 결과의 타입이 download인 경우 → presigned PUT URL을 통해 파일 업로드 후 웹 프론트에서 사용자가 결과 파일 download 가능
  • 결과의 타입이 link인 경우 → URL 그대로 반환
  • 상태 업데이트 및 로그 저장 (S3에 로그 업로드 포함)

결과 포맷은 단순하지만 명확하다

이 통일된 구조 덕분에, 어떤 앱이든 동일한 방식으로 결과를 처리할 수 있다.

Case 1: type이 link인 경우

{
    "type": "link",
    "url": "특정url",
    "label": "Go to Project"
}

  • app의 결과물이 hyperlink인 경우
  • url key가 필요 (ex) platform의 특정 url)
  • label key는 화면에서 보여줄 내용 (ex) 아래 사진에 가장 오른쪽 “Go to Project “버튼 )

 

Case 2: type이 download인 경우

  • app의 결과물이 파일인경우
  • file_path key가 필요 (Pod 내부의 파일 경로)

AppWrapper의 도입 효과

항목 개선 전 개선 후 
코드 중복 presigned 요청, S3 처리 반복 데코레이터로 추상화
예외 처리 앱마다 오류 처리 제각각 실패 시 상태 일괄 업데이트
로그 수집 개발자가 직접 구현 자동 S3 업로드
개발 속도 새로운 앱 추가 시 부가작업 다수 비지니스 로직만 구현하면 끝

 

이 구조 덕분에 앱 개발자는 “파일을 어떻게 받을지, 어디에 저장할지, 상태를 어떻게 보고할지” 같은 운영상의 디테일을 몰라도 앱 로직만 작성하면 된다.


실제 AppWrapper 데코레이터 내부는 어떻게 구현되어 있을까?

AppWrapper는 클래스지만, __call__ 메서드를 구현함으로써 함수 데코레이터처럼 동작한다. 로컬 모드와 운영 모드가 명확히 분기되어 있어 개발/운영 환경에서 모두 활용 가능하고, 예외 발생 시 즉시 로그 저장 & 상태 보고를 통해 시스템 안정성 확보한다.

class AppWrapper:
	....
    
	def __call__(self, func):
        def inner(*args, **kwargs):
            if self.LOCAL_MODE:
                try:
                    result = func(*args, **kwargs) 
                except Exception as e:
                    logger.error(e)
                    sys.exit(1)
            else:
                try:
                    result = func(*args, **kwargs) # 비지니스 로직 함수
                except Exception as e:
                    logger.error(traceback.format_exc())

                    .....

                    if task_data["Task"]["status"] != Status.Canceled.value:
                        self.send_pod_log_to_s3() # pod 로그 s3로 전송
                        self.update_status(Status.Failed.value, str(e))

                try:
                    # 반환된 결과 포맷 유효성 검사
                    self.validate_result_format(result)

                    # 파일이 포함된 경우 업로드
                    if result["type"] == "download":
                        self.upload_file_to_s3(result)

                    # 결과를 backend에 전송
                    data = {"task_id": self.task_id, "result": result}
                    self.send_pod_log_to_s3()
                    requests.post(
                        f"{self.TOAD_HOST}/output/",
                        data=json.dumps(data),
                    )

                    # 성공 상태 업데이트
                    self.update_status(Status.Complete.value, "App completed")

                except Exception as e:
                    error_log = f"Post app failed: {e}"
                    self.update_status(Status.Failed.value, error_log)

        return inner

AppWrapper는 어떻게 활용되고 있을까?

AppWrapper는 내부 앱 개발자들이 공통으로 사용할 수 있도록 구조화되어 있으며,

별도의 설치 없이 앱 코드에서 쉽게 가져다 사용할 수 있도록 PyPI에 패키징되어 배포되어 있다.

$ pip install AppWrapper
  • PyPI에 공개(링크)되어 있어 누구나 설치는 가능하지만, 소스 코드는 private GitHub repository에서 관리되고 있어 내부 사용자만 직접 수정하거나 검토할 수 있다.
  • 앱 개발자는 별도의 설정 없이 @AppWrapper 데코레이터만 붙이면, 파일 다운로드, 결과 업로드, 상태 보고, 로그 저장 등 반복되는 실행 흐름을 자동으로 처리할 수 있다.

개선 포인트와 앞으로의 방향

AppWrapper는 현재까지 수십 개의 앱에서 안정적으로 사용되며, 개별 app들의 실행 흐름에 많은 역할을 하고 있다.
하지만 실제 운영하면서 다음과 같은 개선 가능성도 보였다:

1. 단일 클래스가 너무 많은 책임을 가짐

  • 환경 초기화, 파일 다운로드/업로드, 상태 전송, 로그 처리, 예외 핸들링 등 너무 많은 역할이 한 클래스에 몰려 있다.
  • SRP(Single Responsibility Principle)를 따르는 구조로 리팩토링할 필요가 있다.
    (예: S3Client, StatusManager, ResultValidator 등으로 분리)

2. 결과 포맷의 유효성 검사는 코드로만 정의됨

  • result는 dict 형식에 "type", "url" 혹은 "file_path"가 필요하지만, 이를 Pydantic 등으로 명시하지 않았다. Pydantic 기반의 result schema 도입을 통해 유효성 검사를 개선할 수 있겠다.

 

반응형
반응형

이번 장에서는 텍스트 형태의 코드를 컴파일 가능한 논리적 구조로 파싱하는 방법을 다룸

CPython은 코드를 파싱하기 위해 CST(concrete syntax tree)와 AST(abstract syntax tree) 두가지 구조를 사용

파싱 과정은 아래와 같음

  1. 파서-토크나이저 또는 렉서(lexer)가 CST를 생성
  2. 파서가 CST로 부터 AST를 생성

6.1 CST 생성

  • 파스 트리라고도 부르는 CST는 문맥 자유 문법에서 코드를 표현하는 루트와 순서가 있는 트리
  • 토크나이저와 파서가 CST를 생성. 파서 생성기는 문맥 자유 문법이 가질 수 있는 상태에 대한 결정적 유한 오토마타 파싱 테이블을 생성
  • CST에서 if_stmt같은 심벌은 분기로, 토큰과 단말 기호는 리프 노드로 표시

ex) 산술 표현식 a + 1 을 CST로 표현하면 아래와 같음

 

  • 산술 표현식은 크게 좌측 항, 연산자, 우측항으로 나뉨
  • 파서는 입력 스트미으로 들어오는 토큰들이 문법적으로 허용되는 토큰과 상태인지 확인하며 CST를 생성
  • CST를 구성하는 모든 심벌은 Grammar/Grammar 파일에서 정의
# L147
arith_expr: term (('+'|'-') term)*
term: factor (('*'|'@'|'/'|'%'|'//') factor)*
factor: ('+'|'-'|'~') factor | power
power: atom_expr ['**' factor]
atom_expr: [AWAIT] atom trailer*
atom: ('(' [yield_expr|testlist_comp] ')' |
       '[' [testlist_comp] ']' |
       '{' [dictorsetmaker] '}' |
       NAME | NUMBER | STRING+ | '...' | 'None' | 'True' | 'False')

토큰은 Grammar/Tokens 파일에서 정의

ENDMARKER
NAME
NUMBER
STRING
NEWLINE
INDENT
DEDENT

LPAR                    '('
RPAR                    ')'
LSQB                    '['
RSQB                    ']'
COLON                   ':'
COMMA                   ','
SEMI                    ';'
  • NAME 토큰은 변수나 함수, 클래스 모듈의 이름을 표현
  • 파이썬 문법에서 await이나 async 같은 예약어나 숫자 형식 또는 리터럴 타입 등은 NAME 값으로 쓸 수 없음
  • 예를 들어, 함수 이름으로 1을 사용하려고 하면 SyntaxError가 발생
>>> def 1():
  File "<python-input-0>", line 1
    def 1():
        ^
SyntaxError: invalid syntax

NUMBER는 다양한 숫자 형식 값을 표현하는 토큰으로 다음과 같은 특수 문법들을 사용할 수 있음

  • 8진수 값: 0o20
  • 16진수 값: 0x10
  • 이진수 값: 0b1000
  • 복소수 값: 10j
  • 부동 소수점 값: 1.01
  • 밑줄로 구분된 값: 1_000_000

6.2 파서-토크나이저

  • 렉서 구현은 프로그래밍 언어마다 다르고 렉서 생성기로 파서 생성기를 보완하는 언어도 있음
  • CPython의 파서-토크나이저는 C로 작성되었음

6.2.1 연관된 소스 파일 목록

  • Python/pythonrun.c : 파서와 컴파일러 실행
  • Parser/parsetok.c : 파서와 토크나이저 구현
  • Parser/tokenizer.c : 토크나이저 구현
  • Parser/tokenizer.h : 토큰 상태 등의 데이터 모델을 정의하는 토크나이저 구현 헤더 파일
  • Include/token.h : Tools/scripts/generate_token.py에 의해 생성되는 토큰 정의
  • Include/node.h : 토크나이저를 위한 CST 노드 인터페이스와 매크로

6.2.2 파일 데이터를 파서에 입력하기

  • 파서-토크나이저 진입점인 PyParser_ASTFromFileobject()는 파일 핸들과 컴파일러 플래그, PyArena 인스턴스를 받아 파일 객체를 모듈로 변환

파일을 2단계로 변환됨

  1. PyParser_ParseFileObject()를 사용해 CST로 변환
  2. AST 함수 PyAST_FromNodeObject()를 사용해 CST를 AST 또는 모듈로 변환

PyParser_ParseFileObject() 함수는 2가지 중요 작업을 수행

  1. PyTokenizer_FromFile()을 사용해 토크나이저 상태 tok_state를 초기화
  2. parsetok()을 사용해 토큰들을 CST(노드 리스트)로 변환

6.2.3 파서-토크나이저의 흐름

  • 커서가 텍스트 입력의 끝에 도달하거나 문법 오류가 발견될 때까지 파서와 토크나이저를 실행
// Parser/parsetok.c L164
node *
PyParser_ParseFileObject(FILE *fp, PyObject *filename,
                         const char *enc, grammar *g, int start,
                         const char *ps1, const char *ps2,
                         perrdetail *err_ret, int *flags)
{
    struct tok_state *tok; // (1)

    if (initerr(err_ret, filename) < 0)
        return NULL;

    if (PySys_Audit("compile", "OO", Py_None, err_ret->filename) < 0) {
        return NULL;
    }

    if ((tok = PyTokenizer_FromFile(fp, enc, ps1, ps2)) == NULL) {
        err_ret->error = E_NOMEM;
        return NULL;
    }
    if (*flags & PyPARSE_TYPE_COMMENTS) {
        tok->type_comments = 1;
    }
    Py_INCREF(err_ret->filename);
    tok->filename = err_ret->filename;
    return parsetok(tok, g, start, err_ret, flags);
}

(1) 파서-토크나이저는 실행 전에 토크나이저에서 사용하는 모든 상태를 저장하는 임시 데이터 구조인 tok_state를 초기화

  • tok_state 구조체
더보기
/* Tokenizer state */
struct tok_state {
    /* Input state; buf <= cur <= inp <= end */
    /* NB an entire line is held in the buffer */
    char *buf;          /* Input buffer, or NULL; malloc'ed if fp != NULL */
    char *cur;          /* Next character in buffer */
    char *inp;          /* End of data in buffer */
    const char *end;    /* End of input buffer if buf != NULL */
    const char *start;  /* Start of current token if not NULL */
    int done;           /* E_OK normally, E_EOF at EOF, otherwise error code */
    /* NB If done != E_OK, cur must be == inp!!! */
    FILE *fp;           /* Rest of input; NULL if tokenizing a string */
    int tabsize;        /* Tab spacing */
    int indent;         /* Current indentation index */
    int indstack[MAXINDENT];            /* Stack of indents */
    int atbol;          /* Nonzero if at begin of new line */
    int pendin;         /* Pending indents (if > 0) or dedents (if < 0) */
    const char *prompt, *nextprompt;          /* For interactive prompting */
    int lineno;         /* Current line number */
    int first_lineno;   /* First line of a single line or multi line string
                           expression (cf. issue 16806) */
    int level;          /* () [] {} Parentheses nesting level */
            /* Used to allow free continuations inside them */
    char parenstack[MAXLEVEL];
    int parenlinenostack[MAXLEVEL];
    PyObject *filename;
    /* Stuff for checking on different tab sizes */
    int altindstack[MAXINDENT];         /* Stack of alternate indents */
    /* Stuff for PEP 0263 */
    enum decoding_state decoding_state;
    int decoding_erred;         /* whether erred in decoding  */
    int read_coding_spec;       /* whether 'coding:...' has been read  */
    char *encoding;         /* Source encoding. */
    int cont_line;          /* whether we are in a continuation line. */
    const char* line_start;     /* pointer to start of current line */
    const char* multi_line_start; /* pointer to start of first line of
                                     a single line or multi line string
                                     expression (cf. issue 16806) */
    PyObject *decoding_readline; /* open(...).readline */
    PyObject *decoding_buffer;
    const char* enc;        /* Encoding for the current str. */
    char* str;
    char* input;       /* Tokenizer's newline translated copy of the string. */

    int type_comments;      /* Whether to look for type comments */

    /* async/await related fields (still needed depending on feature_version) */
    int async_hacks;     /* =1 if async/await aren't always keywords */
    int async_def;        /* =1 if tokens are inside an 'async def' body. */
    int async_def_indent; /* Indentation level of the outermost 'async def'. */
    int async_def_nl;     /* =1 if the outermost 'async def' had at least one
                             NEWLINE token after it. */
};

(2) 토크나이저 상태는 커서의 현재 위치 같은 정보를 저장 (Parser/tokenizer.h)

  • Parser/tokenizer.h
더보기
/* Tokenizer state */
struct tok_state {
    /* Input state; buf <= cur <= inp <= end */
    /* NB an entire line is held in the buffer */
    char *buf;          /* Input buffer, or NULL; malloc'ed if fp != NULL */
    char *cur;          /* Next character in buffer */
    char *inp;          /* End of data in buffer */
    const char *end;    /* End of input buffer if buf != NULL */
    const char *start;  /* Start of current token if not NULL */
    int done;           /* E_OK normally, E_EOF at EOF, otherwise error code */
    /* NB If done != E_OK, cur must be == inp!!! */
    FILE *fp;           /* Rest of input; NULL if tokenizing a string */
    int tabsize;        /* Tab spacing */
    int indent;         /* Current indentation index */
    int indstack[MAXINDENT];            /* Stack of indents */
    int atbol;          /* Nonzero if at begin of new line */
    int pendin;         /* Pending indents (if > 0) or dedents (if < 0) */
    const char *prompt, *nextprompt;          /* For interactive prompting */
    int lineno;         /* Current line number */
    int first_lineno;   /* First line of a single line or multi line string
                           expression (cf. issue 16806) */
    int level;          /* () [] {} Parentheses nesting level */
            /* Used to allow free continuations inside them */
    char parenstack[MAXLEVEL];
    int parenlinenostack[MAXLEVEL];
    PyObject *filename;
    /* Stuff for checking on different tab sizes */
    int altindstack[MAXINDENT];         /* Stack of alternate indents */
    /* Stuff for PEP 0263 */
    enum decoding_state decoding_state;
    int decoding_erred;         /* whether erred in decoding  */
    int read_coding_spec;       /* whether 'coding:...' has been read  */
    char *encoding;         /* Source encoding. */
    int cont_line;          /* whether we are in a continuation line. */
    const char* line_start;     /* pointer to start of current line */
    const char* multi_line_start; /* pointer to start of first line of
                                     a single line or multi line string
                                     expression (cf. issue 16806) */
    PyObject *decoding_readline; /* open(...).readline */
    PyObject *decoding_buffer;
    const char* enc;        /* Encoding for the current str. */
    char* str;
    char* input;       /* Tokenizer's newline translated copy of the string. */

    int type_comments;      /* Whether to look for type comments */

    /* async/await related fields (still needed depending on feature_version) */
    int async_hacks;     /* =1 if async/await aren't always keywords */
    int async_def;        /* =1 if tokens are inside an 'async def' body. */
    int async_def_indent; /* Indentation level of the outermost 'async def'. */
    int async_def_nl;     /* =1 if the outermost 'async def' had at least one
                             NEWLINE token after it. */
};
  • 파서-토크나이저는 tok_get()으로 다음 토큰을 얻고 그 아이디를 파서로 전달
// Parser/tokenizer.c L1174
/* Get next token, after space stripping etc. */

static int
tok_get(struct tok_state *tok, const char **p_start, const char **p_end)
{
	int c;
	int blankline, nonascii;
	*p_start = *p_end = NULL;
	nextline:
	tok->start = NULL;
	blankline = 0;
	/* Get indentation level */
	if (tok->atbol) {
	...
	return PyToken_OneChar(c);
	}
  • 파서는 파서 생성기 오토마타(DFA)로 CST에 노드를 추가

640줄이 넘는 tok_get()은 CPython 코드 중에서도 손꼽히게 복잡한 부분중 하나. 루프에서 토크나이저와 파서를 호출하는 과정은 아래와 같음

  • CST→AST로 변환하려면 PyParser_ParseFileObject()에서 반환된 CST의 루트인 node가 필요
node *
PyParser_ParseFileObject(FILE *fp, PyObject *filename,
                         const char *enc, grammar *g, int start,
                         const char *ps1, const char *ps2,
                         perrdetail *err_ret, int *flags)
{
    struct tok_state *tok;

    if (initerr(err_ret, filename) < 0)
        return NULL;

    if (PySys_Audit("compile", "OO", Py_None, err_ret->filename) < 0) {
        return NULL;
    }

    if ((tok = PyTokenizer_FromFile(fp, enc, ps1, ps2)) == NULL) {
        err_ret->error = E_NOMEM;
        return NULL;
    }
    if (*flags & PyPARSE_TYPE_COMMENTS) {
        tok->type_comments = 1;
    }
    Py_INCREF(err_ret->filename);
    tok->filename = err_ret->filename;
    return parsetok(tok, g, start, err_ret, flags);
}

 

노드 구조체는 Include/node.h에서 정의

typedef struct _node {
    short               n_type;
    char                *n_str;
    int                 n_lineno;
    int                 n_col_offset;
    int                 n_nchildren;
    struct _node        *n_child;
    int                 n_end_lineno;
    int                 n_end_col_offset;
} node;

 

CST는 구문, 토큰 아이디, 심벌을 모두 포함하기 때문에 컴파일러가 사용하기에는 적합하지 않음

AST를 살펴보기에 앞서 파서 단계의 결과를 확인하는 방법이 있는데, parser 모듈은 C함수의 파이썬 API를 제공

>>> import parser
st<stdin>:1: DeprecationWarning: The parser module is deprecated and will be removed in future versions of Python
>>> st = parser.expr('a+1')
>>> 
>>> 
>>> pprint(parser.st2list(st))
[258,
 [332,
  [306,
   [310,
    [311,
     [312,
      [313,
       [316,
        [317,
         [318,
          [319,
           [320,
            [321, [322, [323, [324, [325, [1, 'a']]]]]],
            [14, '+'],
            [321, [322, [323, [324, [325, [2, '1']]]]]]]]]]]]]]]]],
 [4, ''],
 [0, '']]
  • Parser 모듈의 출력은 숫자형식으로 make regen-grammar 단계에서 Include/token.h파일에 저장된 코튼과 심벌의 번호와 같음

좀더 보기 쉽게 symbol과 token 모듈의 모든 번호로 딕셔너리를 만든 후 parser.st2list()의 출력을 토큰과 심벌의 이름으로 재귀적으로 바꾸면 아래와 같음

import symbol
import token
import parser
from pprint import pprint

def lex(expression):
    symbols = {v: k for k, v in symbol.__dict__.items() if isinstance(v, int)}
    tokens = {v: k for k, v in token.__dict__.items() if isinstance(v, int)}
    lexicon = {**symbols, **tokens}
    st = parser.expr(expression)
    st_list = parser.st2list(st)

    def replace(l: list):
        r = []
        for i in l:
            if isinstance(i, list):
                r.append(replace(i))
            else:
                if i in lexicon:
                    r.append(lexicon[i])
                else:
                    r.append(i)
        return r

    return replace(st_list)

pprint(lex("a + 1"))
['eval_input',
 ['testlist',
  ['test',
   ['or_test',
    ['and_test',
     ['not_test',
      ['comparison',
       ['expr',
        ['xor_expr',
         ['and_expr',
          ['shift_expr',
           ['arith_expr',
            ['term',
             ['factor', ['power', ['atom_expr', ['atom', ['NAME', 'a']]]]]],
            ['PLUS', '+'],
            ['term',
             ['factor',
              ['power', ['atom_expr', ['atom', ['NUMBER', '1']]]]]]]]]]]]]]]]],
 ['NEWLINE', ''],
 ['ENDMARKER', '']]
  • symbol은 arith_expr 처럼 소문자로, 토큰은 NUMBER처럼 대문자로 출력

 

6.3 추상 구문 트리

  • 파서가 생성한 CST를 실행가능하면서 좀 더 논리적으로 변환하는 단계
  • CST는 코드 파일의 텍스트를 있는 그대로 표현하는 구조로, 텍스트로부터 토큰을 추출하여 토큰 종류만 구분해 둔 상태에 불과
  • CST로 기본적인 문법 구조는 알 수 있지만 함수, 스코프, 루프 같은 파이썬 언어 사양에 대한 의미를 결정할 수 없음
  • 코드를 컴파일 하기 전 CST를 실제 파이썬 언어구조와 의미 요소를 표현하는 고수준 구조인 AST로 변환해야 함
  • 예를 들어 AST에서 이항 연산은 표현식의 한 종류인 BinOp로 표현. 해당 표현식은 세가지 요소로 이루어짐
  1. left: 왼쪽 항
  2. op: 연산자(+, -, * 등)
  3. right: 오른쪽 항

다음은 a + 1 에 대한 AST

 

  • AST는 CPython 파싱 과정 중에 생성하지만 표준 라이브러리 ast모듈을 사용해서 파이썬 코드에서 AST를 생성할 수도 있음

6.3.1 AST 연관된 소스 파일 목록

  • Include/python-ast.h: Parser/asdl_c.py 로 생성한 AST 노드 타입 선언
  • parser/Python.asdl: 도메인 특화 언어인 ASDL(abstract syntax description language) 5로 작성된 ast 노드 타입들과 프로퍼티 목록
  • Python/ast.c: AST 구현

6.3.2 인스타비즈로 AST 시각화하기

$ pip install instaviz
  • AST와 컴파일된 코드를 웹 인터페이스로 시각화 하는 파이썬 패키지
❯ python                                                                     
Python 3.9.20 (main, Sep  6 2024, 19:03:56) 
[Clang 15.0.0 (clang-1500.3.9.4)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
>>> import instaviz
>>> def example():
...     a = 1
...     b = a + 1
...     return b
... 
>>> 
>>> instaviz.show(example)

 

  • 트리의 각 노드의 타입은 AST 노드 클래스
  • ast 모듈에서 찾을 수 있는 노드 클래스들은 모두 _ast.AST를 상속

  • CST와 달리, AST의 노드들은 특정 프로퍼티들을 통해 자식 노드와 연결됨
  • b = a + 1 이 선언된 줄과 연결된 assign 노드를 클릭하면 아래와 같음

  • Assign 노드는 2개의 프로퍼티를 가짐
  1. targets는 값이 할당될 이름의 목록. 언패킹을 통해 한 번에 여러 이름에 값을 할당할 수 있기 때문에 목록이 필요
  2. value는 이름에 할당할 값. 이 경우에 BinOp 표현식 a + 1 이 할당됨
  • BinOp노드는 세 개의 프로퍼티를 가짐
  1. left: 왼쪽 항
  2. op: 연산자, 이 경우에는 더 하기를 뜻하는 Add 노드(+)
  3. right: 오른쪽 항

 

6.3.3 AST 컴파일

  • C에서 AST를 컴파일하는 것을 매우 복잡한 작업으로 Python/ast.c 모듈은 5000줄이 넘는 코드로 이루어져 있음
  • AST의 공개 API는 CST와 파일 이름, 컴파일러 플래그 ,메모리 저장 영역을 인자로 받음
  • 반환 타입은 파이썬 모듈을 표현하는 mod_ty 타입으로 Include/Python-ast.h 에서 정의

mod_ty는 아래 4가지 모듈 타입 중 하나를 담는 컨테이너 구조체

  1. Module
  2. Interactive
  3. Expression
  4. FunctionType
  • 모듈 타입은 Parser/Python.asdl에서 정의하는데 문장, 표현식, 연산자, 컴프리헨션 타입들도 찾을 수 있음
  • AST가 생성하는 클래스들과 표준 라이브러리 ast 모듈의 클래스들은 Parser/Python.asdl에서 정의하는 타입들

Parser/Python.asdl 파일 내용의 일부

-- ASDL's 4 builtin types are:
-- identifier, int, string, constant

module Python
{
    mod = Module(stmt* body, type_ignore* type_ignores)
        | Interactive(stmt* body)
        | Expression(expr body)
        | FunctionType(expr* argtypes, expr returns)
  • ast 모듈은 문법을 다시 생성할 때 Include/Python-ast.h를 임포트하는데 이 파일은 Parser/Python.asdl에서 자동으로 생성됨
  • Include/Python-ast.h 파라미터와 이름은 Parser/Python.asdl의 정의를 따름
  • Include/Python-ast.h 의 mod_ty 타입은 Parser/Python.asdl 의 Module 정의로부터 생성됨
// Include/Python-ast.h
struct _mod {
    enum _mod_kind kind;
    union {
        struct {
            asdl_seq *body;
            asdl_seq *type_ignores;
        } Module;

        struct {
            asdl_seq *body;
        } Interactive;

        struct {
            expr_ty body;
        } Expression;

        struct {
            asdl_seq *argtypes;
            expr_ty returns;
        } FunctionType;

    } v;
};
  • Python/ast.c 는 이 C 헤더 파일에서 제공하는 구조체들을 사용해 필요한 데이터를 가리키는 포인터를 담은 구조체들을 신속하게 생성
  • AST의 진입점인 PyAST_FromNodeObject()는 TYPE(n)에 대한 switch 문을 실행
  • TYPE()은 CST 노드의 타입을 결정하는 매크로로 결과로 심벌 또는 토큰 타입을 반환
  • 루트 노드의 타입은 항상 Module, Interactive, Expression, FunctionType 중 하나
    • file_input일 경우 Module 타입
    • REPL 등으로 들어오는 eval_input 인 경우는 Expression 타입
  • Python/ast.c에는 각 타입에 대응되는 ast_for_xxx 이름의 C 함수들이 구현되어있음
  • 이 함수들은 CST의 노드 중에 해당 문에 대한 프로퍼티를 찾음

ex) 2 의 4제곱을 뜻하는 2 ** 4같은 제곱에 대한 표현식

  • ast_for_power()는 연산자가 Pow(제곱), 좌측은 e(2), 우측은 f(4)인 BinOp를 반환
// Python/ast.c L2716
static expr_ty
ast_for_power(struct compiling *c, const node *n)
{
    /* power: atom trailer* ('**' factor)*
     */
    expr_ty e;
    REQ(n, power);
    e = ast_for_atom_expr(c, CHILD(n, 0));
    if (!e)
        return NULL;
    if (NCH(n) == 1)
        return e;
    if (TYPE(CHILD(n, NCH(n) - 1)) == factor) {
        expr_ty f = ast_for_expr(c, CHILD(n, NCH(n) - 1));
        if (!f)
            return NULL;
        e = BinOp(e, Pow, f, LINENO(n), n->n_col_offset,
                  n->n_end_lineno, n->n_end_col_offset, c->c_arena);
    }
    return e;
}
import instaviz

def foo():
    2**4

instaviz.show(foo)

요약

  • 모든 타입의 문과 표현식에는 ast_for_xx() 생성자 함수가 있음
  • 함수의 인자들은 Parser/Python.asdl에서 정의하며 표준 라이브러리의 ast 모듈을 통해 외부에 제공
  • 표현식 또는 문이 자식 노드를 가지고 있으면 깊이 우선 탐색을 통해 자식 노드에 대한 ast_for_xx () 함수를 먼저 호출

 

6.4 중요한 용어들

  • AST(Abstract Syntax Tree): 파이썬 문법과 문장들에 대한 문맥 있는 트리 표현
  • CST(Concrete Syntax Tree): 토큰과 심벌에 대한 문맥 없는 트리 표현
  • 파스 트리 (Parse Tree): CST의 다른 이름
  • 토큰: 심벌의 종류 중 하나(ex) +)
  • 토큰화: 텍스트를 토큰으로 변환하는 과정
  • 파싱: 텍스트를 CST나 AST로 변환하는 과정

 

6.5 예제: ‘거의 같음’ 비교 연산자 추가하기

  • 새로운 문법인 거의 같음 연산자 (’~=’)을 추가하고 CPython을 컴파일
  • 아래와 같이 동작
    • 정수와 부동 소수점을 비교할 때 부동 소수점은 정수로 변환해 비교
    • 정수와 정수를 비교할 때는 일반 동등 연산자를 사용

REPL에서 새 연산자를 사용하면 아래와 같은 결과를 볼 수 있어야 함

>>> 1 ~= 1
True

>>> 1 ~= 1.0
True

>>> 1 ~= 1.01
True

>>> 1 ~= 1.9
False

  1. 먼저 CPython 문법을 변경해야 함. 비교 연산자들은 Grammar/python.gram 파일에 comp_op 심벌로 정의 (L398: L413)
comparison[expr_ty]:
    | a=bitwise_or b=compare_op_bitwise_or_pair+ {
        _Py_Compare(a, CHECK(_PyPegen_get_cmpops(p, b)), CHECK(_PyPegen_get_exprs(p, b)), EXTRA) }
    | bitwise_or
compare_op_bitwise_or_pair[CmpopExprPair*]:
    | eq_bitwise_or
    | noteq_bitwise_or
    | lte_bitwise_or
    | lt_bitwise_or
    | gte_bitwise_or
    | gt_bitwise_or
    | notin_bitwise_or
    | in_bitwise_or
    | isnot_bitwise_or
    | is_bitwise_or
    | ale_bitwise_or (추가된 내용)
  • compare_op_bitwise_or_pair 식에 ale_bitwise_or를 허용

L414: L424 에서 ale_bitwise_or 추가해서 ‘~=’ 단말 기호를 포함하는 식을 정의

eq_bitwise_or[CmpopExprPair*]: '==' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, Eq, a) }
noteq_bitwise_or[CmpopExprPair*]:
    | (tok='!=' { _PyPegen_check_barry_as_flufl(p, tok) ? NULL : tok}) a=bitwise_or {_PyPegen_cmpop_expr_pair(p, NotEq, a) }
lte_bitwise_or[CmpopExprPair*]: '<=' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, LtE, a) }
lt_bitwise_or[CmpopExprPair*]: '<' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, Lt, a) }
gte_bitwise_or[CmpopExprPair*]: '>=' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, GtE, a) }
gt_bitwise_or[CmpopExprPair*]: '>' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, Gt, a) }
notin_bitwise_or[CmpopExprPair*]: 'not' 'in' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, NotIn, a) }
in_bitwise_or[CmpopExprPair*]: 'in' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, In, a) }
isnot_bitwise_or[CmpopExprPair*]: 'is' 'not' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, IsNot, a) }
is_bitwise_or[CmpopExprPair*]: 'is' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, Is, a) }
ale_bitwise_or[CmpopExprPair*]: '~=' a=bitwise_or { _PyPegen_cmpop_expr_pair(p, ALE, a) }  (추가된 내용)
  • _PyPegen_cmpop_expr_pair(p, ALE, a) 함수 호출은 AST에서 ‘거의 같음’ 연산자를 뜻하는 AlE(Almost Equal) 타입 cmpop 노드를 가져옴
  1. Grammar/Tokens에 토큰 추가 (L54)
ELLIPSIS                '...'
COLONEQUAL              ':='
ALMOSTEQUAL             '~=' (추가된 내용)
  1. 변경된 문법과 토큰을 C코드에 반영하기 위해 헤더를 다시 생성
❯ make regen-token regen-pegen
# Regenerate Doc/library/token-list.inc from Grammar/Tokens
# using Tools/scripts/generate_token.py
python3.9 ./Tools/scripts/generate_token.py rst \\
                ./Grammar/Tokens \\
                ./Doc/library/token-list.inc
# Regenerate Include/token.h from Grammar/Tokens
# using Tools/scripts/generate_token.py
python3.9 ./Tools/scripts/generate_token.py h \\
                ./Grammar/Tokens \\
                ./Include/token.h
# Regenerate Parser/token.c from Grammar/Tokens
# using Tools/scripts/generate_token.py
python3.9 ./Tools/scripts/generate_token.py c \\
                ./Grammar/Tokens \\
                ./Parser/token.c
# Regenerate Lib/token.py from Grammar/Tokens
# using Tools/scripts/generate_token.py
python3.9 ./Tools/scripts/generate_token.py py \\
                ./Grammar/Tokens \\
                ./Lib/token.py
PYTHONPATH=./Tools/peg_generator python3.9 -m pegen -q c \\
                ./Grammar/python.gram \\
                ./Grammar/Tokens \\
                -o ./Parser/pegen/parse.new.c
python3.9 ./Tools/scripts/update_file.py ./Parser/pegen/parse.c ./Parser/pegen/parse.new.c
  • 헤더를 다시 생성하면 토크나이저도 자동으로 변경됨. Parser/token.c 파일 안에 _PyParser_TokenNames 배열에 "ALMOSTEQUAL"추가 및 PyToken_TwoChars()함수의 case에 ‘~’와 ‘=’가 추가된 것을 확인 할 수 있음
const char * const _PyParser_TokenNames[] = {
	...
	"ALMOSTEQUAL",
	...
};

int
PyToken_TwoChars(int c1, int c2)
{
	switch (c1){
    case '~':
        switch (c2) {
        case '=': return ALMOSTEQUAL;
        }
        break;
        ...
  1. CPython을 다시 컴파일하고 REPL을 실행해보면 토크나이저는 새 토큰을 처리할 수 있지만 AST는 처리하지 못함

ast.c의 ast_for_comp_op()는 ALMOSTEQUAL을 올바른 비료 연산자로 인식할 수 없기 때문에 예외를 발생시킴

Parser/Python.asdl에 정의하는 Compare 표현식은 좌측 표현식 left, 연산자목록인 ops, 비교할 표현식 목록인 comparators로 이루어져 있음

Compare 정의는 cmpop 열거 형을 참조하면되고, 이 열거형은 비교 연산자로 사용할 수 있는 AST 리프 노드의 목록. 여기에 ‘거의 같음’ 연산자인 AlE를 추가

    cmpop = Eq | NotEq | Lt | LtE | Gt | GtE | Is | IsNot | In | NotIn | AlE

$ make regen-ast

Incude/Python-ast.h에서 비교 연산자를 정의하는 열거형인 _cmpop에 AlE가 추가된 것을 확인할 수 있음

//Include/Python-ast.h L30
typedef enum _cmpop { Eq=1, NotEq=2, Lt=3, LtE=4, Gt=5, GtE=6, Is=7, IsNot=8,
                      In=9, NotIn=10, AlE=11 } cmpop_ty;

AST는 ALMOSTEQUAL 토큰이 비교 연산자인 AlE라는 것을 아직 알 수 없어서, 토큰을 연산자로 인식할 수 있게 AST관련 C 코드를 수정

Python/ast.c의 ast_for_comp_op()로 이동해서 switch문을 찾아보면, _cmpop 열거형 값 중 하나를 반환 함

static cmpop_ty
ast_for_comp_op(struct compiling *c, const node *n)
{
    /* comp_op: '<'|'>'|'=='|'>='|'<='|'!='|'in'|'not' 'in'|'is'
               |'is' 'not'
    */
    REQ(n, comp_op);
    if (NCH(n) == 1)
    {
        n = CHILD(n, 0);
        switch (TYPE(n))
        {
        case LESS:
            return Lt;
        case GREATER:
            return Gt;
        case ALMOSTEQUAL: // 추가된 내용
            return AlE;   // 추가된 내용
        case EQEQUAL: /* == */
            return Eq;
        case LESSEQUAL:
            return LtE;
        case GREATEREQUAL:
            return GtE;
        case NOTEQUAL:
            return NotEq;
        case NAME:
            if (strcmp(STR(n), "in") == 0)
                return In;
            if (strcmp(STR(n), "is") == 0)
                return Is;
            /* fall through */

이제 토크나이저와 AST모두 코드를 파싱할 수 있지만 컴파일러는 아직 이 연산자를 실행하는 방법을 모름

AST로 거의 같음 연산자를 아래와 같이 확인해볼 수 있음

import ast
m = ast.parse('1 ~= 2')
m.body[0].value.ops[0]
<_ast.AlE object at 0x111111>
반응형
반응형

03-2 IP 주소

네트워크 주소와 호스트 주소

  • 아래는 네트워크 주소가 16비트 , 호스트 주소가 16비트인 IP 주소의 예시

  • 네트워크 주소: 네트워크 ID, 네트워크 식별자로 불리기도 함
  • 호스트 주소: 호스트 ID, 호스트 식별자로 불리기도 함

  • 위와 같이 네트워크 주소가 하나의 옥텟으로 이루어져 있다면, 한 네트워크당 호스트 주소 할당에 3바이트 (24바이트)를 사용할 수 있어서 상대적으로 많은 호스트 IP 주소 할당 가능

  • 위와 같이 네트워크 주소가 3개의 옥텟으로 이루어져 있다면, 네트워크 당 호스트 주소 할 당에 1바이트(8비트)를 사용할 수 있으며 상대적으로 적은 IP 주소만 할당 가능
  • 위 예들처럼 IP 주소에서 네트워크 주소와 호스트 주소를 구분하는 범위는 유동적인데 각각 어느정도를 할당하는게 적당할까?

 

클래스풀 주소 체계

  • 클래스는 네트워크 크기에 따라 IP 주소를 분류하는 기준
  • 클래스를 이용하면 필요한 호스트 IP 개수에 따라 네트워크 크기를 가변적으로 조정해 네트워크 주소와 호스트 주소를 구획할 수 있음
  • 클래스를 기반으로 IP 주소를 관리하는 주소 체계를 클래스풀 주소 체계(classful addressing)라고 함

A, B, C 클래스가 있다고 가정

A 클래스

  • B, C클래스에 비해 할당 가능한 호스트 주소의 수가 많음
  • 네트워크 주소는 ‘’비트 ‘0’으로 시작하고 1옥텟으로 구성되며, 호스트 주소는 3옥텟. 이론상으로 $2^7(128)$ 개의 A클래스 네트워크가 존재할 수 있고 $2^{24}(16,777,216)$ 개의 호스트 주소를 가질 수 있음
  • A 클래스로 나타낼 수 있는 IP 주소의 최솟값을 10진수로 표현하면 0.0.0.0, 최대값은 127.255.255.255
  • 요컨대 가장 처음 옥텟의 주소가 0~127일 경우 A 클래스 주소임을 짐작할 수 있음

B 클래스

  • 네트워크 주소는 비트 ‘10’으로 시작하고 2옥텟으로 구성되며 호스트 주소도 2옥텟으로 구성
  • 이론상으로 $2^{14}(16,384)$개의 B클래스 네트워크와 $2^{16}(65,534)$개의 호스트 주소를 가질 수 있음
  • B클래스 IP 주소값의 최소값을 10진수로 표현하면, 128.0.0.0, 최대값은 191.255.255.255임
  • 가장 처음 옥텟의 주소가 128~192 일 경우 B클래스 주소임을 짐작할 수 있음

C 클래스

  • 네트워크 주소는 비트’110’으로 시작하고 3옥텟으로 구성되며 호스트 주소는 1옥텟으로 구성
  • 이론상으로 $2^{21}(2,097,152)$개의 C클래스 네트워크가 존재할 수 있고, 각 네트워크는 $2^8(256)$개의 호스트 주소를 가질 수 있음
  • C클래스 IP 주소값의 최소값을 10진수로 표현하면, 192.0.0.0, 최대값은 223.255.255.255임
  • 가장 처음 옥텟의 주소가 192~224일 경우 C클래스 주소임을 짐작할 수 있음

다만 호스트의 주소 공간을 모두 사용할 수 있는 것은 아님. 호스트 주소가 전부 0인 IP 주소는 해당 네트워크 ㅈ체를 의미하는 네트워크 주소로 사용되고, 호스트 주소가 모두 1인 IP 주소는 브로드캐스트를 위한 주소로 사용됨

 

References

 

반응형
반응형

ARP(Address Resolution Protocol)

  • 통신을 주고 받고자 하는 호스트의 IP 주소는 알지만 MAC 주소는 모르는 경우 사용되는 프로토콜
  • 동일 네트워크 내에 있는 송수신 대상의 IP 주소를 통해 MAC 주소를 알아낼 수 있음

예시 상황

  • 동일 네트워크에 속한 호스트 A, B가 있음
  • 호스트 A는 호스트 B의 IP 주소는 알지만 MAC 주소는 모름
  • 이 상황에서 호스트 B의 MAC 주소를 알아내기 위해 ARP를 이용함

1. ARP 요청

  • 호스트 A는 브로드캐스트 메시지를 전송. 브로드캐스트 메시지란 네트워크에 속한 모든 호스트에게 보내는 메시지
  • 브로드캐스트 메시지는 ARP요청이라는 ARP 패킷

 

2. ARP 응답 (ARP Reply)

  • 호스트 B이외에 나머지 호스트들은 받은 메시지의 수신 IP가 자신의 IP 주소가 아니므로 무시
  • 호스트 B는 자신의 MAC 주소를 담은 유니캐스트 메시지를 A에게 전송 (1:1 통신을 위한 유니캐스트 메시지)
  • 유니캐스트 메시지 = ARP 응답이라는 ARP 패킷으로 이 메시지를 수신한 A는 B의 MAC 주소를 알게 됨

 

3. ARP 테이블 갱신

  • ARP 테이블: ARP 요청-응답을 통해 알게된 IP주소와 MAC 주소의 연관 관계를 기록한 테이블
  • 테이블 항목은 일정시간이 지나면 삭제되거나 임의 삭제도 가능
  • 테이블에 등록된 호스트에 대해선 ARP 요청을 보낼 필요 없음

 

ARP 패킷

  • ARP 요청과 응답 과정에서 송수신되는 패킷

  • 오퍼레이션 코드(Opcode; Operation Code) : ARP 요청의 경우 1, ARP 응답의 경우 2
  • 송신지 하드웨어 주소와 수신지 하드웨어 주소에는 MAC 주소
  • 송신지/수신지 프로토콜 주소에는 IP 주소

ARP 테이블 확인 (Mac OS 터미널)

$ arp -a

 

유의할 점

  • ARP 프로토콜은 같은 네트워크 내에 속해있는 호스트의 IP 주소를 통해 MAC 주소를 알아내는 프로토콜임
  • 그렇다면 다른 네트워크에 속해있는 IP 주소는 알지만 MAC 주소는 모르는 경우는?
  • 통신하고자 하는 호스트 A와 B가 서로 다른 네트워크에 속해있는 상황

 

1. ARP 요청/응답 과정을 통해 라우터 A의 MAC 주소를 알아낸 뒤, 이를 향해 패킷 전송

 

2. 라우터 A가 라우터 B의 MAC 주소를 모르는 경우에는 ARP 요청/응답 과정을 통해 라우터 B의 MAC 주소를 알아낸 뒤, 이를 향해 패킷 전송

 

3. 라우터 B가 호스트 B의 MAC 주소를 모르는 경우 ARP 요청/응답 과정을 통해 호스트 B의 MAC 주소를 알아낸 뒤, 이를 향해 패킷 전송

 

 

 

 

References

 

반응형
반응형

LAN을 넘어서 다른 네트워크와 통신하기 위해서는 네트워크 계층의 역할이 필수적이다

데이터 링크 계층의 한계

아래의 이유들로 물리 계층과 데이터 링크 계층만으로 다른 도시나 국가에 있는 사람과 통신하기 어려움

1. 물리 계층과 데이터 링크 계층만으로는 다른 네트워크까지의 도달 경로를 파악하기 어려움

  • 물리 계층과 데이터 링크 계층은 기본적으로 LAN을 다루는 계층으로 지구 반대편에 있는 사람의 컴퓨터와 정보를 주고 받으려면, 서로에게 도달하기까지 수많은 네트워크 장비를 거치며 다양한 경로를 통해 정보가 이동
  • 통신을 빠르게 주고받으려면 최적의 경로로 패킷이 이동해야하는데 이를 결정하는 것을 라우팅(routing)이라고 함
  • 물리계층과 데이터 링크 계층의 장비로는 라우팅을 수행할 수 없지만, 네트워크 계층의 장비로는 가능한데 대표적인 장비로 라우터(router)가 있음

2. MAC 주소만으로는 모든 네트워크에 속한 호스트의 위치를 특정하지 어려움

  • 현실적으로 모든 호스트가 모든 네트워크에 속한 모든 호스트의 MAC 주소를 서로 알고 있기 어려움
  • 네트워크를 통해 정보를 주고 받는 과정을 택배를 보내고 받는 것에 비유하면, MAC 주소는 네트워크 인터페이스(NIC)마다 할당된 일종의 개인 정보와 같음
  • 택배를 보낼 때는 인물을 특정하는 정보 이외에 수신지도 써야 함. 수신지 역할을 하는 것이 네트워크 계층의 IP 주소
  • IP주소는 논리주소라고도 부르며, NIC마다 할당되는 고정된 주소인 MAC 주소와 달리, IP 주소는 호스트에 직접 할당 가능

인터넷 프로토콜(Internet Protocol, IP)

  • 2가지 버전이 있음 IP버전 4(IPv4)와 IP버전 6(IPv6). 일반적으로 IP 혹은 IP 주소를 이야기할 때 주로 IPv4를 의미

IP 주소 형태

  • 4바이트로 주소를 표현할 수 있고 숫자당 8비트로 표현되기에 0~255 범위안에 있는 4개의 10진수로 표기
  • 각 10진수는 점으로 구분되며, 점으로 구분된 8비트를 옥텟(octet)이라고 함

ex) 192.168.1.1

IP의 2가지 기능

  1. IP 주소 지정 (IP addressing)
  • IP 주소를 바탕으로 송수신 대상을 지정하는 것을 의미
  1. IP 단편화 (IP Fragmentation)
  • 전송하고자 하는 패킷의 크기가 MTU라는 최대 전송 단위보다 클 경우, 이를 MTU 크기 이하의 복수의 패킷으로 나누는 것을 의미
  • MTU란 Maximum Transmission Unit이란 뜻으로 한 번에 전송 가능한 IP 패킷의 최대 크기를 의미하며 일반적으로 1500 바이트

IPv4

  • IPv4 패킷은 프레임의 페이로드로 데이터 필드를 명시

핵심 필드

  1. 식별자(Identifier)
    1. 패킷에 할당된 번호로 MTU를 초과하여 쪼개져서 수신지로 도착한 IPv4 패킷들이 어떤 메시지에서 쪼개졌는지 알기 위해 사용
  2. 플래그(Flag)
    1. 총 3개 비트로 구성
    2. 첫번째 비트는 항상 0으로 예약된 비트로 사용되지 않음
    3. 비트중 DF(Don’t Fragment)는 IP 단편화 수행 여부를 나타내는 표시로, 1이면 단편화 수행 X, 0이면 단편화 가능
    4. MF(More Fragment)는 단편화된 패킷이 더 있는지를 나타내는데 1이면 패킷이 더 있음을 나타내고 0이면 이 패킷이 마지막을 나타냄
  3. 단편화 오프셋(Fragment offset)
    1. 초기 데이터에서 몇 번째로 떨어진 패킷인지를 나타냄
    2. 쪼개진 패킷들은 같은 순서대로 수신지에 도착하지 않을 수 있음
    3. 수신지가 패킷들을 순서대로 재조합하려면 단편화된 패킷이 초기 데이터에서 몇번째 해당하는 패킷인지 알아야 함
  4. TTL(Time To Live)
    1. 패킷의 수명
    2. 무의미한 패킷이 네트워크 상에 지속적으로 남아있는 것을 방지하기 위해 존재
    3. 패킷이 하나의 라우터를 거칠때마다 TTL이 1씩 감소, TTL이 0으로 떨어진 패킷은 폐기
    4. 홉(hop): 패킷이 호스트 또는 라우터에 한번 전달되는 것으로 TTL 필드 값은 홉마다 1씩 감소
  5. 프로토콜
    1. 상위 계층에 프로토콜을 나타냄
  6. 송신지 IP 주소
  7. 수신지 IP 주소

IPv6

  • 이론적으로 할당 가능한 IPv4 주소 개수는 4바이트(32비트)로 표현가능한 숫자이므로 약 43억개
  • 시간이 지나면서 부족한 숫자가 되고 IPv4의 주소의 총량은 쉽게 고갈되어 이 문제를 해결하고자 IPv6가 등장
  • 16바이트로 주소를 표현할 수 있고 콜론(:) 으로 구분된 8개 그룹의 16진수로 표기
1050:0000:0000:0000:0005:0600:300c:326b

핵심필드

  1. 다음 헤더(next header)
    1. 상위 계층의 프로토콜 또는 확장 헤더를 가리키거나 확장 헤더를 가리킴
    2. 확장 헤더란 기본 헤더 이외에 추가정보가 필요한 경우 사용하는 헤더
    3. 수신지에서만 패킷을 검사하도록 하는 수신지 옵션, 송신지에서 수신지에 이르는 모든 경로의 네트워크 장비가 패킷을 검사하도록 하는 홉 간 옵션 등이 있음
  2. 홉 제한
    1. IPv4 패킷의 TTL 필드와 비슷하게 패킷의 수명을 나타내는 필드

 

References

반응형
반응형

02-4 스위치

스위치(Switch)

  • 데이터 링크 계층의 네트워크 장비로 2계층에서 사용한다 하여 L2스위치라고도 부름
  • 허브와는 달리 MAC 주소를 학습해 특정 MAC 주소를 가진 호스트에만 프레임을 전달할 수 있고 전이중 모드의 통신을 지원

 

특징

  • 특정 포트와 해당 포트에 연결된 호스트의 MAC 주소와의 관계를 기억하는데 이러한 기능을 MAC 주소 학습이라 부름
  • 관계를 기억하기 위해 메모리에 표 형태로 기억하는데 이 정보를 MAC 주소 테이블(MAC address table)이라고 부름

 

MAC 주소 학습

  • 특정 포트와 해당 포트에 연결된 호스트의 MAC 주소의 관계를 기억하는 기능으로, 포트에 연결된 호스트의 MAC 주소를 알 수 있음

MAC 주소 테이블

  • 스위치 포트와 연결된 호스트의 MAC 주소 간의 연관 관계를 나타내는 정보

 

스위치의 세 가지 기능을 통해 MAC 주소 테이블을 채우고 원하는 수신지가 연결된 포트에만 프레임을 보낼 수 있음

  1. 플러딩
  2. 포워딩과 필터링
  3. 에이징

아래 그림처럼 구성된 네트워크에서 호스트 A가 호스트로 C로 프레임을 전송하는 상황을 가정. 호스트 A, B, C, D는 각각 포트 1, 2, 3, 4번에 연결되어 있음

 

  • 처음에 스위치는 호스트의 MAC 주소와 연결된 포트의 연관관계를 모르는 상태로 MAC 주소 테이블이 비어 있음
  • 호스트 A가 1번 포트를 통해서 메세지를 전달했더라고, 2번 포트로 내보내야 하는지, 3번 포트로 내보내야 하는지, 4번 포트로 내보내야 하는지 알 수 없음

 

  • 스위치의 MAC 주소 학습은 프레임 내 ‘송신지 MAC 주소’ 필드를 바탕으로 이루어짐
  • 스위치가 호스트 A에서 프레임을 수신하면, 프레임 내 ‘송신지 MAC 주소’ 정보를 바탕으로 호스트 A의 MAC 주소와 연결된 포트를 MAC 주소 테이블에 저장
  • 하지만 여전히 수신지 호스트 C가 어떤 포트와 연결되어있는지에 대한 정보는 없음

 

 

  • 플러딩(Flooding): 허브처럼 모든 포트로 프레임 전송

  • 호스트 B, C, D는 프레임을 수신 → 메세지의 수신지 MAC 주소 정보를 보고 호스트 B와 D는 프레임 폐기

 

  • 호스트 C 응답 프레임의 송신지 MAC 주소 필드로 호스트 C의 MAC 주소를 학습, MAC 주소 테이블에 기록

 

  • 호스트 A와 C가 프레임을 주고 받을 때는 다른 포트로 프레임을 내보낼 필요가 없음
  • 스위치는 호스트 B, D가 연결된 포트로는 내보내지 않도록 필터링(Filtering)
  • 호스트 C가 연결된 포트로 프레임을 포워딩(Forwarding)

에이징(aging)

  • MAC 주소 테이블에 등록된 포트에서 일정 시간 동안 프레임을 받지 못하면 해당 항목은 삭제하는데 이를 에이징이라고 함

참고) 브리지 (Bridge)

  • 스위치와 유사한 장비로 네트워크 영역을 구획하여 콜리전 도메인을 나누거나 네트워크를 확장하기 위해 사용
  • 최근에는 스위치에 비해 사용빈도가 줄어드는 추세고 스위치가 브리지의 기능들을 포괄하며 프레임의 처리 성능 면에서도 우수

 

스위치의 VLAN 기능

  • Virtual LAN의 줄임말로, 한대의 스위치로 가상의 LAN을 만드는 방법
  • 불필요한 트래픽(허브, 스위치의 플러딩)으로 인한 성능 저하 방지

  • 스위치에 연결된 호스트들 중에서도 서로 메시지를 주고받을 일이 적거나 브로드캐스트 케시지가 필요없는 경우, 굳이 같은 LAN에 속할 필요가 없음
  • 이를 분리하고자 매번 새로운 스위치 장비를 구비하는 것은 낭비인데 이를 방지 하기위해 VLAN 기능을 활용할 수 있음
  • 한대의 물리적 스위치를 여러 대의 스위치가 있는 것처럼 논리적인 단위로 LAN을 구획

  • VLAN은 사실상 다른 LAN으로 브로드캐스트 도메인이 달라짐
  • 위 예에서 개발부와 총무부가 통신하기 위해서는 네트워크 같의 통신을 위한 장치가 필요

 

VLAN의 종류

Port 기반 VLAN

  • 스위치의 포트가 VLAN을 결정하는 방식
  • 특정 포트에 VLAN을 할당한 뒤, 해당 포트에 호스트를 연결하여 VLAN에 참여
  • 위 그림에서 호스트 A, B는 VLAN2를 할당한 포트에 연결되어 있어 같은 LAN에 속한 상태
  • 호스트 C는 VLAN3에 속해있으므로 호스트 A, B와 다른 LAN에 속한 상태

 

MAC 기반 VLAN

  • 사전에 설정된 MAC 주소에 따라 VLAN이 결정
  • 송수신하는 프레임 속 MAC 주소가 호스트가 속할 VLAN을 결정하는 방식
  • 호스트 A는 어떤 포트와 연결되더라도 VLAN3에 할당됨

 

References

반응형
반응형

계약에 의한 디자인

관계자가 기대하는 바를 암묵적으로 코드에 삽입 X

양측이 동의하는 계약을 먼저 한 다음, 계약을 어겼을 경우는 명시적으로 왜 계속할 수 없는지 예외를 발생시키라는 것

책에서 말하는 계약은 소프트웨어 컴포넌트 간의 통신 중에 반드시 지켜져야 할 몇 가지 규칙을 강제하는 것

  • 사전조건: 코드가 실행되기 전 체크해야하는 것들(ex) 파라미터에 제공된 데이터의 유효성 검사)
  • 사후조건: 함수 반환값의 유효성 검사로 호출자가 이 컴포넌트에서 기대한 것을 제대로 받았는지 확인하기 위해 수행
  • 불변식: 함수가 실행되는 동안 일정하게 유지되는 것으로 로직에 문제가 없는지 확인하기 위한 것(docstring 문서화하는 것이 좋다)
  • 부작용: 선택적으로 코드의 부작용을 docstring에 언급하기도 한다

사전조건(precondition)

  • 함수나 메소드가 제대로 동작하기 위해 보장해야 하는 모든 것들
  • 함수는 처리할 정보에 대한 적절한 유효성 검사를 해야 하는데 어디서 할지에 대해 2가지로 나뉨
    • 관대한(tolerant) 접근법: 클라이언트가 함수를 호출하기 전에 모든 유효성 검사를 진행
    • 까다로운(demanding) 접근법: 함수가 자체적으로 로직을 실행하기 전에 검사를 진행

⇒ 어디에서 유효성 검사를 진행하든 어느 한쪽에서만 진행해야 함

사후조건(postcondition)

  • 함수나 메소드가 반환된 후의 상태를 강제하는 것

파이썬스러운 계약

  • 메소드, 함수, 클래스에 제어 메커니즘을 추구하고 검사에 실패할 경우 RuntimeError나 ValueError를 발생시키는 것
  • 사전조건, 사후조건 검사, 핵심 기능 구현은 가능한 한 격리된 상태로 유지하는 것이 좋음

계약에 의한 디자인(DbC) - 결론

  • 문제가 있는 부분을 효과적으로 식별하는데 가치가 있음
  • 명시적으로 함수나 메소드가 정상적으로 동작하기 위해 필요한 것이 무엇인지, 무엇을 반환하는지를 정의해 프로그램의 구조를 명확히 할 수 있음
  • 원칙에 따라 추가적인 작업이 발생하지만 이방법으로 얻은 품질은 장기적으로 보상됨

방어적(defensive) 프로그래밍

  • 계약에 의한 디자인과는 다른 접근 방식
  • 계약에서 예외를 발생시키고 실패하게 되는 모든 조건을 기술하는 대신 코드의 모든 부분을 유효하지 않은 것으로부터 스스로 보호할 수 있게 하는 것
    • 예상할 수 있는 시나리오의 오류를 처리 - 에러 핸들링 프로시져
    • 발생하지 않아야 하는 오류를 처리하는 방법 - assertion error

에러 핸들링

  • 일반적으로 데이터 입력확인 시 자주 사용
  • 목적은 예상되는 에러에 대해서 실행을 계속할지/ 프로그램을 중단할지 결정하는 것

에러처리방법

  • 값 대체(value substitution)
  • 에러 로깅
  • 예외 처리

값 대체

  • 일부 시나리오에서 오류가 있어 소프트웨어가 잘못된 값을 생성하거나 전체가 종료될 위험이 있을 경우 결과 값을 안전한 다른 값으로 대체하는 것
  • 항상 가능하지는 않고 신중하게 선택해야 함 (견고성과 정확성 간의 trade-off)
  • 정보가 제공되지 않을 경우 기본 값을 제공할 수도 있음
import os

configuration = {"dbport": 5432}
print(configuration.get("dbhost", "localhost"))  # localhost
print(configuration.get("dbport"))  # 5432

print(os.getenv("DBHOST"))  # None

print(os.getenv("DPORT", 5432))  # 5432
  • 두번째 파라미터 값을 제공하지 않으면 None을 반환

사용자 정의함수에서도 파라미터의 기본 값을 직접 정의할 수 있음

def connect_database(host="localhost", port=5432):
    pass
  • 일반적으로 누락된 파라미터를 기본 값으로 바꾸어도 큰 문제가 없지만 오류가 있는 데이터를 유사한 값으로 대체하는 것을 더 위험하여 일부 오류를 숨겨버릴 수 있음

예외처리

어떤 경우에는 잘못된 데이터를 사용하여 계속 실행하는 것보다는 차라리 실행을 멈추는 것이 더 좋을 수 있음

  • 입력이 잘못되었을 때만 함수에 문제가 생기는 것이 아님 (외부 컴포넌트에 연결되어 있는 경우)
  • 이런 경우에는 함수 자체의 문제가 아니기 때문에 적절하게 인터페이스를 설계하면 쉽게 디버깅 할 수 있음

⇒ 예외적인 상황을 명확하게 알려주고 원래의 비즈니스 로직에 따라 흐름을 유지하는 것이 중요

정상적인 시나리오나 비즈니스 로직을 예외처리하려고 하면 프로그램의 흐름을 읽기가 어려워짐

→ 예외를 go-to문처럼 사용하는 것과 같다. 올바른 위치에서 추상화를 하지 못하게 되고 로직을 캡슐화하지도 못하게 됨.

마지막으로 예외를 대게 호출자에게 잘못을 알려주는 것으로 캡슐화를 약화시키기 때문에 신중하게 사용해야 함→이는 함수가 너무 많은 책임을 가지고 있다는 것을 의미할 수도 있음. 함수에서 너무 많은 예외를 발생시켜야 한다면 여러개의 작은 기능으로 나눌 수 있는지 검토해야 함

올바른 수준의 추상화 단계에서 예외 처리

  • 예외는 오직 한가지 일을 하는 함수의 한 부분이어야 함
  • 서로 다른 수준의 추상화를 혼합하는 예제. deliver_event 메소드를 중점적으로 살펴보면
import logging
import time

logger = logging.getLogger(__name__)

class DataTransport:
    """다른 레벨에서 예외를 처리하는 객체의 예"""

    _RETRY_BACKOFF: int = 5
    _RETRY_TIMES: int = 3

    def __init__(self, connector):
        self._connector = connector
        self.connection = None

    def deliver_event(self, event):
        try:
            self.connect()
            data = event.decode()
            self.send(data)
        except ConnectionError as e:
            logger.info("커넥션 오류 발견: %s", e)
            raise
        except ValueError as e:
            logger.error("%r 이벤트에 잘못된 데이터 포함: %s", event, e)
            raise

    def connect(self):
        for _ in range(self._RETRY_TIMES):
            try:
                self.connection = self._connector.connect()
            except ConnectionError as e:
                logger.info("%s: 새로운 커넥션 시도 %is", e, self._RETRY_BACKOFF)
                time.sleep(self._RETRY_BACKOFF)
            else:
                return self.connection
        raise ConnectionError(f"연결실패 재시도 횟수 {self._RETRY_TIMES} times")

    def send(self, data):
        return self.connection.send(data)
    def deliver_event(self, event):
        try:
            self.connect()
            data = event.decode()
            self.send(data)
        except ConnectionError as e:
            logger.info("커넥션 오류 발견: %s", e)
            raise
        except ValueError as e:
            logger.error("%r 이벤트에 잘못된 데이터 포함: %s", event, e)
            raise
  • ConnectionError와 ValueError는 별로 관계가 없음
  • 매우 다른 유형의 오류를 살펴봄으로써 책임을 어떻게 분산해야 하는지에 대한 아이디어를 얻을 수 있음
    • ConnectionError는 connect 메소드 내에서 처리되어야 함. 이렇게 하면 행동을 명확하게 분리할 수 있다. 메소드가 재시도를 지원하는 경우 메소드 내에서 예외처리를 할 수 있음
    • ValueError는 event의 decode 메소드에 속한 에러로 event를 send 메소드에 파라미터로 전달 후 send 메소드 내에서 예외처리를 할 수 있음
  • 위 내용처럼 구현을 수정하면 deliver_event 메소드에서 예외를 catch할 필요가 없음
def connect_with_retry(connector, retry_n_times: int, retry_backoff: int = 5):
    """<connector>를 사용해 연결을 시도함.
    연결에 실패할 경우 <retry_n_times>회 만큼 재시도
    재시도 사이에는 <retry_backoff>초 만큼 대기

    연결에 성공하면 connection 객체를 반환
    재시도 횟수를 초과하여 연결에 실패하면 ConnectionError 오류 발생

    :param connector: connect() 메소드를 가진 객체
    :param retry_n_times: 연결 재시도 횟수
    :param retry_backoff: 재시도 사이의 대기 시간(초)

    """
    for _ in range(retry_n_times):
        try:
            return connector.connect()
        except ConnectionError as e:
            logger.info("%s: 새로운 커넥션 시도 %is", e, retry_backoff)
            time.sleep(retry_backoff)

    exc = ConnectionError(f"연결 실패 ({retry_n_times}회 재시도)")
    logger.exception(exc)
    raise exc
class DataTransport:
    """추상화 수준에 따른 예외 분리를 한 객체"""

    _RETRY_BACKOFF: int = 5
    _RETRY_TIMES: int = 3

    def __init__(self, connector: Connector) -> None:
        self._connector = connector
        self.connection = None

    def deliver_event(self, event: Event):
        self.connection = connect_with_retry(
            self._connector, self._RETRY_TIMES, self._RETRY_BACKOFF
        )
        self.send(event)

    def send(self, event: Event):
        try:
            return self.connection.send(event.decode())
        except ValueError as e:
            logger.error("%r contains incorrect data: %s", event, e)
            raise
  • deliver_event 메소드 내에서 예외 catch 하는 부분 없어짐

엔드 유저에게 Traceback 노출 금지

  • 보안을 위한 고려사항으로 예외가 전파되도록하는 경우는 중요한 정보를 공개하지 않고 “알 수 없는 문제가 발생했습니다” 또는 “페이지를 찾을 수 없습니다”와 같은 일반적인 메세지를 사용해야 함

비어있는 except 블록 지양

  • 파이썬의 안티패턴 중 가장 악마같은 패턴(REAL 01)으로 어떠한 예외도 발견할 수 업슨 문제점이 있음
try:
    process_data()
except: 
    pass
  • 아무것도 하지 않는 예외 블록을 자동으로 탐지할 수 있도록 CI 환경을 구축하면 좋음
더보기

flake8
pylint

https://pylint.pycqa.org/en/latest/user_guide/messages/warning/bare-except.html

name: Lint Code

on: [push, pull_request]

jobs:
  lint:
    runs-on: ubuntu-latest

    steps:
    - name: Checkout code
      uses: actions/checkout@v2

    - name: Set up Python
      uses: actions/setup-python@v2
      with:
        python-version: '3.x'

    - name: Install dependencies
      run: |
        python -m pip install --upgrade pip
        pip install -r requirements.txt

    - name: Run flake8
      run: |
        flake8 . --select=E722
      
    - name: Run pylint
      run: |
        find . -name "*.py" | xargs pylint --disable=all --enable=W0702

대안으로 아래 두 항목 동시에 적용하는 것이 좋다

  1. 보다 구체적인 예외처리 (AttributeError 또는 KeyError)
  2. except 블록에서 실제 오류 처리
  • pass를 사용하는 것은 그것이 의미하는 바를 알 수 없기 때문에 나쁜 코드이다
  • 명시적으로 해당 오류를 무시하려면 contextlib.suppress 함수를 사용하는 것이 올바른 방법
import contextlib

with contextlib.suppress(KeyError):
    process_data()

원본 예외 포함

  • raise <e> from <original_exception> 구문을 사용하면 여러 예외를 연결할 수 있음
  • 원본 오류의 traceback 정보가 새로운 exception에 포함되고 원본 오류는 새로운 오류의 원인으로 분류되어 cause 속성에 할당 됨
class InternalDataError(Exception):
    """업무 도메인 데이터의 예외"""

def process(data_dictionary, record_id):
    try:
        return data_dictionary[record_id]
    except KeyError as e:
        raise InternalDataError("데이터가 존재하지 않음") from e

test_dict = {"a": 1}

process(test_dict, "b")

Traceback (most recent call last):
File "/Users/woo-seongchoi/Desktop/CleanCode/ch3/main.py", line 7, in process
return data_dictionary[record_id]
~~~~~~~~~~~~~~~^^^^^^^^^^^
KeyError: 'b'*

The above exception was the direct cause of the following exception:
Traceback (most recent call last):
File "/Users/woo-seongchoi/Desktop/CleanCode/ch3/main.py", line 14, in <module>
process(test_dict, "b")
File "/Users/woo-seongchoi/Desktop/CleanCode/ch3/main.py", line 9, in process
raise InternalDataError("데이터가 존재하지 않음") from e
InternalDataError: 데이터가 존재하지 않음*

 

파이썬에서 assertion 사용하기

  • 절대로 일어나지 않아야 하는 상황에 사용되므로 assert 문에 사용된 표현식을 불가능한 조건을 의미로 프로그램을 중단시키는 것이 좋다
try: 
    assert condition.holds(), "조건에 맞지 않음"
except AssertionError:
    alternative_procedure() # catch 후에도 계속 프로그램을 실행하면 안됨

위 코드가 나쁜 또 다른 이유는 AssertionError를 처리하는 것 이외에 assertion 문장이 함수라는 것

assert condition.holds(), "조건에 맞지 않음"
  • 함수 호출은 부작용을 가질 수 있으며 항상 반복가능하지 않음. 또한 디버거를 사용해 해당 라인에서 중지하여 오류 결과를 편리하게 볼 수 없으며 다시 함수를 호출한다 하더라도 잘못된 값이었는지 알 수 없음
result = condition.holds()
assert result > 0, f"Error with {result}"

예외처리와 assertion의 차이

  • 예외처리는 예상하지 못한 상황을 처리하기 위한 것 ⇒ 더 일반적
  • assertion은 정확성을 보장하기 위해 스스로 체크하는 것
반응형

+ Recent posts