| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- 스프링빈
- fork()
- it
- Kafka
- 시스템호출
- etcd
- 대규모시스템
- AWS
- 엘라스틱서치
- SRE
- Kubernetes
- Monitoring
- Observability
- 운영체제
- 인프라
- elasticsearch
- 데이터엔지니어
- 커널
- 개발
- OS
- Network
- 분산시스템
- 쿠버네티스
- devsecops
- 개발자
- Pub/Sub
- tech
- Data Engineering
- k8s
- 코테
Archives
- Today
- Total
목록cache (1)
모래성 말고 철옹성
[Python] Python LRU Cache 성능 최적화
DP유형의 알고리즘 문제를 풀다 모범 답안으로 @lru_cache 데코레이터를 쓴 파이썬 함수가 있어 궁금해서 찾아봤다. 라떼는 이런거 없었는데....LRU Cache란 무엇인가?LRU(Least Recently Used) Cache는 가장 최근에 사용되지 않은 항목을 제거하는 캐싱 전략이다. 메모리가 제한된 환경에서 효율적인 데이터 관리를 위해 사용되며, 프로그램의 성능을 크게 향상시킬 수 있다. LRU Cache의 핵심 개념캐시 히트(Cache Hit): 요청된 데이터가 캐시에 있는 경우캐시 미스(Cache Miss): 요청된 데이터가 캐시에 없어서 새로 계산해야 하는 경우용량 제한: 메모리 사용량 제어를 위한 최대 항목 수 설정교체 정책: 캐시가 가득 찼을 때 어떤 항목을 제거할지 결정Python ..
실험실
2025. 9. 15. 23:37