Published on

OpenAI Advanced Account Security: AI 계정은 이제 프로덕션 자격증명이다

Authors

OpenAI · Advanced Account Security · ChatGPT · Codex · Passkeys

OpenAI의 Advanced Account Security 발표는 겉으로 보면 “보안을 더 세게 켜는 옵션”처럼 보인다. 하지만 개발자와 운영팀 관점에서 더 중요한 메시지는 따로 있다. ChatGPT와 Codex 계정이 이제 단순 SaaS 로그인 계정이 아니라, 코드·문서·업무 맥락·연결 도구에 접근하는 프로덕션급 자격증명으로 취급되기 시작했다는 점이다.

OpenAI Advanced Account Security cover

OpenAI는 Advanced Account Security를 ChatGPT 계정에서 opt-in으로 켤 수 있는 강화 보안 설정으로 소개한다. 이 설정은 passkey 또는 물리 보안키를 요구하고, password login을 비활성화하며, email/SMS 기반 복구를 끄고, 더 짧은 세션과 명확한 세션 관리를 제공한다. 또한 이 보호는 같은 로그인으로 접근하는 ChatGPT와 Codex 계정 모두에 적용된다.

이 글은 OpenAI의 Advanced Account Security, Cybersecurity in the Intelligence Age, OpenAI available at FedRAMP Moderate, Building the compute infrastructure for the Intelligence Age를 함께 읽고, 한국 개발팀과 AI 제품 운영팀이 무엇을 바꿔야 하는지 정리한 것이다.

기준 시점: 2026-05-01에 확인한 공개 자료 기준이다. 계정 보안 기능, 조직 정책, FedRAMP 제공 범위, Codex 연동 방식은 바뀔 수 있으므로 실제 적용 전 원문과 관리 콘솔을 다시 확인해야 한다.

핵심 thesis: AI 계정은 더 이상 “개인 계정”이 아니다

기존 SaaS 계정 보안은 대체로 이메일, 문서, 결제, 관리자 콘솔 접근을 보호하는 문제였다. 물론 그것도 중요하다. 그런데 ChatGPT와 Codex 계정은 성격이 조금 다르다. 사용자가 장기간 AI와 대화하면서 축적한 맥락, 업로드한 파일, 코드 작업, 사내 문서 요약, 연결된 도구, 자동화 워크플로가 한 계정 주변에 쌓인다.

OpenAI도 이 지점을 직접 짚는다. 사람들은 AI를 개인적인 질문과 high-stakes work에 쓰고 있고, 시간이 지나면 ChatGPT 계정은 민감한 개인/업무 맥락을 담고 연결된 도구와 워크플로의 중심에 놓일 수 있다고 설명한다.

이 문장을 제품 관점으로 번역하면 이렇다.

  • ChatGPT 계정 탈취는 단순 채팅 기록 유출이 아니다.
  • Codex와 연결되면 코드베이스·개발 워크플로·작업 지시가 함께 노출될 수 있다.
  • AI 계정은 API key, GitHub token, SSO session처럼 운영 보안의 일부가 된다.
  • 고위험 사용자뿐 아니라 빌더와 조직 관리자도 이 계정을 “권한 있는 실행 주체”로 봐야 한다.

즉 Advanced Account Security는 소비자용 보안 옵션인 동시에, AI 제품이 엔터프라이즈 작업 표면으로 이동하고 있다는 신호다.

무엇이 바뀌나: 비밀번호, 이메일 복구, SMS 복구가 약한 고리가 된다

Passkeys and hardware security keys

OpenAI가 Advanced Account Security에서 강조한 첫 번째 축은 phishing-resistant sign-in이다. 이 기능을 켜면 passkey 또는 물리 보안키가 필요하고, password-based login은 비활성화된다. 사용자는 YubiKey 같은 FIDO 호환 보안키나 소프트웨어 passkey를 쓸 수 있다.

여기서 실무적으로 중요한 건 “로그인을 조금 더 안전하게 한다”가 아니다. 복구 경로까지 보안 모델의 일부로 다시 설계한다는 점이다.

OpenAI는 이메일 계정이나 전화번호가 탈취되면 공격자가 e-mail 또는 SMS recovery를 통해 ChatGPT 계정에 접근하려 할 수 있다고 설명한다. 그래서 Advanced Account Security는 email/SMS recovery를 끄고, backup passkeys, security keys, recovery keys 같은 더 강한 복구 수단을 요구한다. 이 설정을 켠 사용자는 OpenAI Support를 통한 계정 복구 도움도 받을 수 없다.

이건 불편하지만 일관된 선택이다. 보안에서 계정 복구는 종종 실제 인증보다 약한 우회로가 된다. 로그인만 passkey로 막아도, 이메일 복구가 살아 있으면 공격자는 이메일 탈취로 돌아갈 수 있다. Advanced Account Security는 이 우회로를 줄이는 대신 사용자의 복구 책임을 키운다.

개발팀 입장에서 이 변화는 아래 질문으로 이어진다.

질문왜 중요한가
팀원이 Codex를 쓰는 계정에 passkey가 강제되어 있는가코드 작업 계정 탈취 위험을 줄인다
이메일/SMS 복구를 계속 허용해도 되는가약한 복구 경로가 전체 보안 수준을 낮춘다
recovery key 보관 절차가 있는가강한 보안은 강한 복구 운영 없이는 장애가 된다
퇴사·역할 변경 시 계정 세션을 어떻게 회수하는가AI 도구가 워크플로에 깊게 들어갈수록 계정 회수가 중요하다

Codex까지 보호한다는 말의 의미

이번 발표에서 가장 눈에 띄는 문장 중 하나는 “Once enrolled, Advanced Account Security protects users in Codex as well”이다. 단순히 ChatGPT 웹 UI를 보호하는 기능이 아니라, 같은 로그인으로 접근하는 Codex 계정에도 적용된다는 뜻이다.

이 차이가 크다. ChatGPT만 보면 계정 보안은 대화 기록과 파일 보호의 문제처럼 보인다. 하지만 Codex가 들어오면 계정은 개발 환경과 연결된다.

  • 코드 생성과 수정 지시
  • 저장소·브랜치·이슈 기반 작업 맥락
  • 내부 API나 개발 문서에서 나온 정보
  • 에이전트가 읽고 쓴 중간 산출물
  • 조직의 소프트웨어 전달 흐름

이런 것이 한 계정 주변에 모이면, AI 계정은 사실상 “작업 권한을 가진 세션”이 된다. 비밀번호 재사용, 이메일 복구, 긴 세션, 관리되지 않는 디바이스는 더 이상 개인의 보안 습관 문제가 아니라 팀의 공급망 리스크가 된다.

특히 코딩 에이전트가 많아질수록 계정 보안의 실패 반경은 커진다. 공격자가 Codex 계정을 장악하면 단순히 프롬프트를 훔치는 것이 아니라, 코드 변경 제안, 내부 구조 파악, 의존성 변경, 민감한 로그나 설정 탐색 같은 고위험 행동으로 이어질 수 있다. 그래서 AI 코딩 도구 도입 정책은 “누가 어떤 모델을 쓸 수 있나”보다 먼저 “어떤 인증·복구·세션 정책으로 쓰나”를 포함해야 한다.

세션과 학습 제외: 민감한 AI 사용의 기본값이 바뀐다

Account sessions and connected workflow hub

Advanced Account Security에는 shorter sessions와 clearer session management도 포함된다. 세션이 짧아지면 디바이스나 활성 세션이 탈취됐을 때 노출 시간이 줄어든다. 사용자는 로그인 알림을 받고, 여러 디바이스의 active sessions를 보고 관리할 수 있다.

이 기능은 사소해 보이지만 AI 도구에서는 꽤 중요하다. AI 계정은 종종 여러 장치와 환경에서 열린다. 개인 노트북, 회사 장비, 브라우저, 모바일, 개발용 CLI, 협업 툴, 실험용 환경이 뒤섞일 수 있다. 세션이 길고 가시성이 낮으면, 사용자는 어디에 로그인되어 있는지 모른 채 민감한 질문과 코딩 작업을 계속하게 된다.

또 하나 중요한 변화는 automatic training exclusion이다. OpenAI는 Advanced Account Security가 켜진 계정의 대화가 모델 훈련에 사용되지 않는다고 설명한다. 민감한 정보를 다루는 사용자는 별도로 opt-out을 신경 쓰지 않아도 되는 셈이다.

이 부분은 단순 프라이버시 체크박스가 아니다. AI 사용이 업무 핵심으로 들어갈수록 조직은 다음을 구분해야 한다.

  1. 실험용 대화 — 공개 문서, 테스트 데이터, 낮은 민감도
  2. 업무용 대화 — 사내 문맥, 고객 이슈, 운영 판단
  3. 고위험 대화 — 보안, 법무, 연구, 정치, 언론, 취약점, 소스코드

모든 대화를 같은 계정·같은 정책으로 다루면 안 된다. 고위험 사용자는 더 강한 인증, 짧은 세션, 명확한 복구 절차, 학습 제외 기본값이 필요하다. OpenAI가 이 옵션을 별도로 묶은 이유도 여기에 있다.

왜 지금인가: OpenAI의 보안 신호들이 한 방향을 가리킨다

OpenAI trust stack

Advanced Account Security만 따로 보면 개별 기능 발표처럼 보인다. 하지만 같은 시기의 OpenAI 신호를 함께 보면 더 큰 방향이 보인다.

첫째, OpenAI는 Cybersecurity in the Intelligence Age에서 AI가 방어자에게 취약점 식별, remediation 자동화, 빠른 대응을 가능하게 하지만, 악의적 행위자도 공격 확장과 진입 장벽 완화에 같은 능력을 쓸 수 있다고 말한다. 즉 AI는 보안의 도구인 동시에 보안의 공격면이다.

둘째, OpenAI는 FedRAMP Moderate authorization을 통해 ChatGPT Enterprise와 API Platform을 미국 연방 기관의 보안·프라이버시·거버넌스 기대치 안으로 넣었다고 설명한다. 여기에는 GPT-5.5 같은 강력한 모델 접근, API 기반 AI 기능, 향후 FedRAMP ChatGPT Enterprise workspace와 Codex Cloud 환경의 연결까지 언급된다.

셋째, compute infrastructure 글은 Stargate를 AI 수요를 감당하기 위한 장기 compute foundation으로 설명한다. OpenAI는 2025년 1월 미국 내 10GW AI 인프라 확보를 약속했고, 1년 조금 지난 시점에 이미 그 milestone을 넘겼으며, 최근 90일에만 3GW 이상을 추가했다고 말한다.

이 세 가지를 합치면 메시지는 분명하다.

  • AI 모델은 더 강해지고 더 많이 쓰인다.
  • 더 많은 업무와 정부·기업 워크플로에 들어간다.
  • Codex 같은 에이전트형 도구는 실제 실행 권한과 가까워진다.
  • 따라서 계정 보안은 제품 부가기능이 아니라 배포 조건이 된다.

Advanced Account Security는 이 거대한 흐름의 사용자 계정 레이어다. compute와 FedRAMP와 cyber action plan이 플랫폼·국가·조직 수준의 이야기라면, passkey와 recovery key와 session management는 그 모든 것이 실제 사용자 계정에서 무너지지 않게 하는 바닥이다.

한국 개발팀이 당장 가져갈 체크리스트

한국의 스타트업, 개발팀, AI 제품 운영팀이 이 발표에서 바로 가져갈 실무 포인트는 “우리도 OpenAI Advanced Account Security를 켜자”에서 끝나지 않는다. 더 넓게는 AI 계정 보안 정책을 다시 써야 한다.

1) AI 계정을 권한 있는 계정으로 분류하라

ChatGPT, Codex, Claude, Gemini, GitHub Copilot, 사내 AI agent 계정을 일반 SaaS 계정과 같은 등급으로 두면 안 된다. 특히 코드, 고객 데이터, 운영 문서, 내부 지식베이스에 접근하는 계정은 privileged account로 봐야 한다.

2) passkey 또는 hardware key를 기본값으로 잡아라

모든 사용자에게 당장 물리 보안키를 강제하기 어렵더라도, 고위험 사용자부터 시작할 수 있다. 예를 들어 다음 그룹은 우선 적용 대상이다.

  • 관리자와 보안 담당자
  • AI 코딩 도구를 쓰는 핵심 개발자
  • 고객 데이터나 법무/재무 정보를 다루는 팀
  • 연구, 언론, 공공, 정책 관련 민감 주제를 다루는 사용자
  • production 시스템과 연결된 agent를 운영하는 사람

3) 복구 정책을 보안 정책과 같은 수준으로 설계하라

강한 인증을 켜도 복구 경로가 약하면 의미가 줄어든다. recovery key 보관, 백업 보안키 등록, 역할 변경 시 회수, 분실 시 내부 확인 절차를 문서화해야 한다. “지원팀에 문의하면 풀어준다”는 복구 모델은 고위험 AI 계정에는 맞지 않을 수 있다.

4) 세션 inventory를 정기적으로 보라

AI 계정이 어느 장비와 브라우저에서 로그인되어 있는지 확인하는 절차가 필요하다. 특히 개인 장비와 회사 장비가 섞이는 팀이라면, 긴 세션은 실제 공격면이 된다.

5) AI 사용 등급을 나눠라

모든 AI 사용을 하나의 정책으로 묶으면 과하거나 부족해진다. 낮은 민감도의 아이디어 브레인스토밍, 업무용 문서 요약, 코드 에이전트 실행, 보안 취약점 분석은 서로 다른 계정·로그·보존·학습 제외·승인 정책이 필요하다.

SEO 관점에서 봐도 중요한 키워드: AI account security

앞으로 “AI 보안” 검색 의도는 단순히 prompt injection이나 model safety에 머물지 않을 가능성이 크다. 실제 운영자가 찾는 질문은 더 구체적이다.

  • ChatGPT 계정을 어떻게 안전하게 보호할까?
  • Codex 계정에 passkey를 써야 할까?
  • AI 코딩 에이전트 계정이 탈취되면 어떤 위험이 있을까?
  • 기업에서 AI 계정 복구 정책을 어떻게 설계할까?
  • AI 계정의 대화와 코드 작업이 학습에 쓰이지 않게 하려면 무엇을 봐야 할까?

OpenAI Advanced Account Security는 이 질문들을 하나의 제품 기능으로 묶어 공개했다는 점에서 의미가 있다. 앞으로 AI 도입 가이드는 모델 선택표만으로는 부족하다. 계정 보안, 세션 정책, 복구 절차, 학습 제외, 감사 로그, 권한 분리를 함께 다뤄야 한다.

짧은 결론

OpenAI Advanced Account Security는 “보안을 더 켜는 옵션”이 아니다. AI 계정이 점점 더 민감한 맥락과 실행 권한을 담는다는 사실을 제품 설계가 인정한 사건에 가깝다.

한국 개발팀과 빌더가 가져갈 결론은 간단하다. AI 계정을 개인 편의 도구의 로그인으로 보지 말고, 코드와 업무와 도구에 접근하는 프로덕션 자격증명으로 다뤄야 한다. passkey, hardware key, 강한 복구 정책, 짧은 세션, 학습 제외, 계정 등급화는 이제 보안팀만의 체크리스트가 아니라 AI 제품 운영의 기본값이 된다.


참고한 자료