기술

Shor 알고리즘의 RSA-2048 해독 큐비트 요구량이 1년 만에 10분의 1로 줄었다

비대칭 암호화의 종말이 가속화되면서 격자 기반 암호로의 전환이 국가 경쟁력 문제로 부상했다
Susan Hill

현대 디지털 인프라를 보호하는 암호화는 양자 컴퓨터가 완성되는 순간 무너지지 않는다. 공격자가 이미 수집한 암호문을 해독할 수 있는 양자 계산 능력을 확보하는 순간 무너진다. 이 시간적 역전——위협은 기계의 완성보다 먼저 도래한다——이 Q-Day 문제의 실질적 구조이며, 현재 측정되는 준비 부족이 수년 후의 보안 침해로 직결되는 이유를 설명한다.

위기에 처한 메커니즘은 특수한 것이 아니다. 지배적인 공개키 암호 표준인 RSA는 단일한 수학적 비대칭성에 의존한다. 두 큰 소수를 곱하는 것은 계산상 자명하지만, 2048비트 이상의 키 크기에서 적(積)으로부터 소수를 역산하는 것은 어떤 고전 컴퓨터도 실용적 시간 내에 해결할 수 없을 만큼 난이도가 급격히 상승한다. 웹 트래픽을 보호하는 TLS 핸드셰이크, 신원을 인증하는 인증 기관, 금융 거래를 검증하는 디지털 서명——신뢰된 디지털 통신의 전체 구조는 이 비대칭성이 유지되는 것에 의존한다.

1994년 공식화된 Shor 알고리즘은 양자 계산이 이 비대칭성을 완전히 해소한다는 것을 증명했다. 양자 중첩과 양자 푸리에 변환을 활용해 인수분해 문제를 인코딩하는 모듈러 산술 함수의 주기를 구함으로써, 충분히 큰 양자 컴퓨터는 고전 기계가 필요로 하는 수십억 년이 아닌 수 시간 만에 RSA 개인키를 복원할 수 있다. 알고리즘 자체는 30년 전부터 알려져 있었다. 지난 1년 동안 변한 것은 이를 실행하는 데 필요한 리소스 추정치다.

암호학적으로 의미 있는 양자 컴퓨터의 하드웨어 요구사항은 최근까지 사실상 장벽으로 기능할 만큼 거대했다. 초기 추정치는 RSA-2048을 인수분해하는 데 약 10억 개의 물리적 큐비트가 필요하다고 했다. 2021년까지 Gidney와 Ekerå는 이 추정치를 약 2000만 큐비트가 8시간 가동하는 수준으로 낮췄다. 그리고 2024년부터 2025년까지 1년도 채 되지 않는 시간 동안 세 편의 알고리즘적 연구가 그 추정치를 다시 한 자릿수 붕괴시켰다.

첫 번째는 Shor 알고리즘의 핵심 계산 연산인 모듈러 지수승의 실행 방식 재구성이었다. 기존 접근법에서는 2048비트 수 전체를 동시에 보유할 만큼 큰 양자 레지스터가 필요해 큐비트 수가 증가했다. Chevignard, Fouque, Schrottenloher가 개발한 근사 모듈러 산술은 이를 훨씬 작은 레지스터로 분할 계산하는 방식으로 대체하고, 나중에 수정 가능한 제어된 오류를 허용한다. 두 번째 혁신은 내결함성 양자 계산의 지배적 비용 병목——오류 수정이 불가능한 게이트 연산에 필요한 특수 양자 리소스 상태 생성——을 해결했다. Google Quantum AI에서 개발한 매직 스테이트 육성은 기존의 브루트포스 증류 방식을 대체해 낮은 품질의 상태에서 고충실도 상태를 훨씬 낮은 오버헤드로 키워낸다. 세 번째는 2025년 Craig Gidney의 논문으로, 두 기술을 통합해 필요한 Toffoli 게이트 연산 총수를 약 2조에서 약 65억으로——100배 이상——감소시켰다.

통합 결과: RSA-2048 인수분해는 이제 약 100만 개의 물리적 큐비트가 약 1주일 동안 가동되는 것으로 기술적으로 실현 가능해 보인다. 현재 최첨단 양자 프로세서는 수백 큐비트 규모에서 작동하며 이 요구사항과의 하드웨어 갭은 여전히 실재한다. 그러나 압축의 궤적이 질적으로 변했다. 10억에서 2000만 큐비트로의 감소에 12년이 걸렸지만, 2000만에서 100만 이하로의 감소에는 1년도 걸리지 않았다. 이 가속이 분석적으로 중요한 신호다.

병행하는 하드웨어 발전이 이 궤적을 강화하고 있다. 2024년 말 Google의 Willow 칩은 양자 오류 수정이 서피스 코드 임계값 이하로 노이즈를 억제할 수 있다는 최초의 실험적 증거를 제공했다. IBM의 공표된 로드맵은 2029년까지 약 200개의 논리 큐비트를 탑재한 첫 번째 대규모 내결함성 양자 컴퓨터를 목표로 한다. 여러 독립 플랫폼에서 99.9% 이상의 2큐비트 게이트 충실도가 실증됐다. 이론적 리소스 요구사항과 실제 하드웨어 역량 간의 간격이 여러 자릿수에서 단일 자릿수에 가깝게 압축됐다.

이 압축은 이전에 편안히 먼 미래의 일로 취급되던 위협——지금 수집, 나중에 복호화——에 실질적 긴박감을 부여한다. 암호화된 네트워크 트래픽을 수년간 수집해온 국가 행위자와 정교한 비국가 행위자들은 암호학적으로 의미 있는 양자 컴퓨터가 존재하는 순간 읽을 수 있게 되는 암호문을 보유하고 있다. Q-Day 리스크를 평가하는 적절한 시간적 프레임은 “양자 컴퓨터는 언제 만들어질까”가 아니라 “오늘 암호화하는 데이터는 얼마나 오래 기밀성을 유지해야 하는가”다.

이 위협에 대한 암호학적 대응은 이름과 표준 세트, 그리고 컴플라이언스 타임라인을 갖추고 있다. 양자 내성 암호(PQC)는 RSA와 타원 곡선 암호의 기반이 되는 정수 인수분해 및 이산 대수 문제를 고전적·양자적 공격 모두에 내성이 있다고 여겨지는 수학적 구조로 대체한다. 세계 표준화 기관이 채택한 주요 패밀리는 격자 기반 암호로, 고차원 공간에서의 최단 벡터 문제와 관련 기하학적 과제의 난이도에 안전성을 기반을 둔다. 2024년 8월 NIST는 세 가지 PQC 표준을 최종화했다. 2025년 3월에는 다섯 번째 알고리즘으로 HQC가 선정되어 격자 기반 가정이 장래에 약화될 경우를 대비한 알고리즘 다양성을 제공한다.

표준의 존재가 이전 문제를 해결하지는 않는다. 시작할 뿐이다. 이 규모의 암호 전환은 역사적으로 완전한 인프라 침투에 15년에서 20년을 요구해왔다. 공개키 인프라를 모든 계층에서 재설계해야 한다. 키를 저장·관리하는 하드웨어 보안 모듈의 교체 또는 업그레이드, 인증 기관의 새 자격 증명 계층 발급, 수십억 엔드포인트의 TLS 구현 업데이트, 임베디드 시스템·산업 제어 인프라·장기 금융 시스템에 내장된 프로토콜의 감사와 교체가 필요하다. 이 시스템 중 상당수는 알고리즘 교체를 간소화할 암호 민첩성을 결여하고 있다.

규제 프레임워크는 하드웨어 궤적의 긴박성을 반영한 압축된 타임라인으로 응답하고 있다. NSA의 CNSA 2.0은 모든 신규 국가 안보 시스템을 2027년 1월까지 양자 안전하게 만들 것을 의무화한다. NIST의 폐지 일정은 양자 취약 알고리즘을 2035년 이후 승인된 표준에서 제거한다. EU의 NIS 협력 그룹은 2025년 조정된 구현 로드맵을 발표했다. IBM 비즈니스 가치 연구소의 2025년 양자 안전 준비성 평가는 100점 만점에 세계 평균 25점을 기록했다——규제 마감과 기관 준비 간 격차의 정량적 척도다.

반도체와 첨단 제조 분야에서 세계적 리더십을 보유한 한국에게 이 전환은 기술 주권의 문제이기도 하다. 금융 인프라는 수만 개의 암호 엔드포인트를 통해 거래를 처리하며, 암호 민첩성을 고려하지 않고 설계된 하드웨어 보안 모듈, 결제 프로토콜 스택, 규제 컴플라이언스 프레임워크에 깊게 의존한다. PQC 이전의 규제 의무는 경미한 프로토콜 업데이트조차 보통 수년의 타임라인으로 운영되는 변경 관리 프로세스와 충돌한다.

이 기술적 상황에서 도출되는 실질적 조언은 공황이 아니라 단계적이고 우선순위화된 행동이다. 기밀 유지 기간이 긴 데이터——분류된 정부 통신, 장기 금융 기록, 건강 데이터, 지적 재산——를 다루는 시스템은 규제 마감 이전에도 조기 이전 대상으로 우선시돼야 한다. ML-KEM과 기존 키 교환 알고리즘을 병행 결합한 하이브리드 암호 배포는 실용적인 가교를 제공한다. 하이브리드 방식으로 보호된 데이터를 해독하려면 공격자가 고전적 컴포넌트와 양자 내성 컴포넌트를 동시에 돌파해야 하므로, 수집·복호화 공격의 비용을 크게 높인다.

2024년과 2025년의 알고리즘적 발전이 근본적으로 바꾼 것은 Q-Day를 둘러싼 불확실성의 분포다. 이전 컨센서스는 암호학적으로 의미 있는 양자 계산을 2040년대까지 연장되는 큰 오차와 함께 2030년대에 편안히 위치시켰다. 리소스 추정치가 100만 큐비트 이하로 압축되고, IBM의 2029년 로드맵, Google의 임계값 이하 오류 수정 실험적 확인이 결합되면서 신뢰할 수 있는 추정치가 의미 있게 앞당겨지고 불확실성 범위가 좁아졌다.

양자 내성 암호로의 전환은 격자 기반 알고리즘 배포로 끝나지 않는다. 그것은 장기적 안전성이 고차원 공간에서 기하학적 문제의 난이도에 대한 가정에 의존하는 새로운 암호 표면을 만들어낸다——수십 년간의 고전적 암호 분석은 그 가정을 검증했지만, 결국 규모에서 존재하게 될 양자 컴퓨터의 시험을 받지는 않았다. 현재 이 순간이 요구하는 것은 양자 계산이 언제 성숙할지에 대한 확실성이 아니라, 자신의 보안 태세가 아직도 소수 인수분해가 어렵다는 가정 위에 세워진 기관을 구축하고 있다는 것이 무엇을 의미하는지에 대한 냉철한 평가다. 그 가정에는 유효기간이 있다.

토론

댓글 0개가 있습니다.

```
?>