topic난이도 · 약 15

트랜지스터 · IC · 무어의 법칙

진공관→트랜지스터→IC→VLSI — 실리콘 60년, 그리고 무어 법칙의 종말과 GPU/NPU 시대.

#트랜지스터#IC#무어의법칙#GPU#NPU
왜 배우는가

'왜 M4가 빠른가', 'GPU가 왜 AI를 바꿨나' 답은 반도체 역사에 있다. 무어 법칙이 끝나가는 지금, 왜 병렬·이기종 컴퓨팅(GPU·NPU)이 대세가 됐는지 이해하는 감각이 필요하다.

1947년 트랜지스터 발명이 컴퓨터 혁명의 진짜 출발점이다. 진공관은 크고 뜨겁고 잘 고장 났다. 트랜지스터는 손톱만 했고 수명이 길었다. 1958년 집적회로(IC)가 한 실리콘 칩에 여러 트랜지스터를 담았다. 이후 축소는 기하급수.

시대기술한 칩 트랜지스터 수대표 제품
1940s진공관0 (칩 개념 없음)ENIAC
1950s단일 트랜지스터1IBM 7090
1970sLSI수천Intel 4004
1990sVLSI수백만Pentium
2020s초미세공정수백억Apple M4 (1900억+)
무어의 법칙 — 2년마다 트랜지스터 수 2배. 2020년대부터 둔화

1965년 고든 무어(Intel 창립자)는 논문에서 "트랜지스터 수가 약 2년마다 2배로 늘 것"이라 예측했다. 이 예측은 60년간 맞아 떨어졌다. 같은 칩에 더 많이 박는다 = 더 빠르고 더 저렴 = 반도체의 복리 성장.

무어 법칙의 종말. 2020년대 들어 물리적 한계(원자 크기 근접, 누설 전류, 발열)로 클럭 속도 증가가 멈췄다. 대신 코어를 늘리고(멀티코어), 특화 칩(GPU·NPU·TPU)으로 병렬 처리하는 방향으로 전환.

칩 종류특화왜 쓰나
CPU범용 순차 처리OS·앱 로직
GPU대량 병렬 (SIMD)그래픽·딥러닝 행렬곱
NPU저전력 추론온디바이스 AI (M4·Snapdragon)
TPU대규모 학습Google 데이터센터
FPGA/ASIC완전 커스텀 회로비트코인·네트워크 장비

AI가 GPU를 만난 이유. 딥러닝 학습은 거대한 행렬곱 덩어리다. CPU는 한 번에 한 연산씩 잘하지만, GPU는 수천 개 연산을 동시에 한다. 2012년 AlexNet이 GPU로 ImageNet을 휩쓴 순간 AI 혁명이 시작됐다.

실기 드릴 2문항
edit실기 드릴 · 단답형

"트랜지스터 수가 약 2년마다 2배로 늘어난다"는 경험적 법칙의 이름은?

edit실기 드릴 · 단답형

딥러닝 학습이 CPU보다 GPU에서 압도적으로 빠른 근본 이유는?