Safety best practices
OpenAI 플랫폼의 안전 모범 사례(Safety best practices)
안전 조치 구현
무료 Moderation API 사용
- OpenAI의 Moderation API를 활용하여 불안전한 콘텐츠 빈도 감소
- 필요시 사용 사례에 맞는 자체 콘텐츠 필터링 시스템 개발 가능
적대적 테스팅
- '레드팀' 방식으로 애플리케이션의 견고성 확인
- 다양한 입력과 사용자 행동에 대한 테스트 수행
인간 개입(HITL)
- 가능한 경우 출력물에 대한 인간의 검토 권장
- 특히 중요한 영역과 코드 생성에서 중요
프롬프트 엔지니어링
- 출력 텍스트의 주제와 톤 제한을 위해 활용
- 원치 않는 콘텐츠 생성 가능성 감소
KYC(Know Your Customer)
- 사용자 등록 및 로그인 요구
- 기존 계정 연동 또는 신용카드/ID 카드 요구로 위험 감소
사용자 입력 제한 및 출력 토큰 제한
- 프롬프트 주입 방지를 위한 입력 텍스트 양 제한
- 출력 토큰 수 제한으로 오용 가능성 감소
사용자 신고 기능
- 문제 보고를 위한 쉬운 방법 제공 (이메일, 티켓 제출 등)
한계 이해 및 소통
- 모델의 한계 인식 및 사용 목적에 대한 적합성 평가
- 고객 기대치 조정
엔드유저 ID 활용
- 요청에 엔드유저 ID 포함으로 남용 모니터링 및 감지 지원
- 사용자 식별을 위한 고유 문자열 사용 (예: 해시된 사용자명 또는 이메일)
- API 요청 시 'user' 파라미터를 통해 ID 전송
이러한 안전 모범 사례는 OpenAI API를 사용하는 애플리케이션의 보안과 안전성을 향상시키는 데 도움을 줍니다.
'Open AI platform' 카테고리의 다른 글
[OpenAI platform] Start building - Structured Outputs (1) | 2025.03.03 |
---|---|
[OpenAI platform] Guides - Optimizing LLM Accuracy (0) | 2025.03.03 |
[OpenAI platform] Guides - Latency optimization (0) | 2025.03.03 |
[OpenAI platform] Guides - Production best practices (0) | 2025.03.03 |
[OpenAI platform] Guides - Prompt engineering (0) | 2025.03.03 |