AI SecurityFeatured

AIMRED · AI Red Team Project

ID Seoul에서 팀 상금 $6,500를 받은 AI 레드팀 프로젝트. 공격 시나리오, 취약점 검증, 방어 관점 리포팅.

· 4명기간 2주기여도 45%2025-012025-01
핵심 지표: $6,500 team prize · AI red-team validation
실사용 규모: ID Seoul 팀 상금 $6,500
엔지니어링 역할
AI/MLSystems
AI Security
AIMRED · AI Red Team Project
SYS
#AI#Team#System#Product

개요

ID Seoul에서 팀 상금 $6,500를 받은 AI 레드팀 프로젝트. 생성형 AI 시스템을 대상으로 프롬프트 인젝션, 정책 우회, 데이터 노출 가능성, 에이전트/툴 사용 흐름의 취약 지점을 검증하고, 공격 재현성과 방어 우선순위를 정리했다. 단순 보안 체크리스트가 아니라 실제 제품이 AI 기능을 붙일 때 어떤 입력·도구·권한 경계에서 무너질 수 있는지 실험하고 리포팅한 프로젝트다.

내가 한 작업

  • AI 시스템의 입력·컨텍스트·툴 호출 경계 분석
  • 프롬프트 인젝션 및 정책 우회 케이스 설계
  • 취약점 재현성과 영향도를 기준으로 리스크 우선순위화
  • 팀 프로젝트로 리포트/발표/검증 산출물 정리

주요 기능

  • 공격 시나리오 매트릭스
  • 모델/에이전트 입력 경계 테스트
  • 툴 사용 권한과 데이터 접근 경계 검증
  • 리스크별 재현 절차와 완화 전략 문서화

핵심 포인트

  • ID Seoul 팀 상금 $6,500
  • AI red-team 공격 시나리오 설계
  • 프롬프트 인젝션 · 정책 우회 · 데이터 노출 리스크 검증
  • 재현 가능한 취약점 케이스와 방어 우선순위 정리

타임라인

2025-012025-01
역할: AI red-team 리서치 · 공격 시나리오/검증 참여
기여도: 45%
협업: · 4명

기술 스택

</>AI Red Teaming · Prompt Injection · Threat Modeling

AI Red TeamingPrompt Injection TestingThreat ModelingSecurity Research