대회 브리프
9
6
LLM / 에이전트AI 인프라 / 시스템

OpenAI Safety Sprint

Production-grade LLM safety evaluation workflow를 설계하는 글로벌 해커톤.

상금
₩72,500,000
마감
4일 남음
방식
하이브리드
난도
상급
주최 성격
대기업
참가 방식
1 - 4명 팀 참가
🔥 마감 임박🏆 상금 높음🎓 대학생 추천🌍 글로벌🧪 AI 트렌드🧑‍💻 개발자 추천
왜 지금 볼 만한가

Agent, eval, guardrail 경험을 포트폴리오로 남기기 좋고, 단순 아이디어보다 구현과 측정 설계가 강하게 평가됩니다.

LLM 서비스의 안전성, 평가 체계, 제품 데모 완성도를 동시에 보여줘야 하는 상위권 지향 대회입니다.

공고 내용 정리

Teams build a safety or evaluation workflow for LLM applications. The winning entries combine measurable guardrails, strong user value, and a polished product demo.

AI 전략 리포트

공고와 심사 기준을 기준으로, 바로 실행할 플랜만 추렸습니다.

공고 정보와 겹치는 설명은 빼고, 상위권에 가까워지는 실행 순서만 간단하게 정리했습니다.

핵심 메모

Agent, eval, guardrail 경험을 포트폴리오로 남기기 좋고, 단순 아이디어보다 구현과 측정 설계가 강하게 평가됩니다.

LLM 서비스의 안전성, 평가 체계, 제품 데모 완성도를 동시에 보여줘야 하는 상위권 지향 대회입니다.

심사 기준 포인트: Reliable evaluation 33% · concrete safety metrics 33% · polished user demo 34%

상위권 실행 플랜
1

단일 데모보다 반복 가능한 evaluation loop를 먼저 설계합니다.

2

실패 사례와 개선 지표를 같이 제시해 신뢰도를 확보합니다.

3

실사용 시나리오 한 가지를 깊게 파서 데모 완성도를 높입니다.

4

참가 자격과 제출 전 필요한 증빙 서류를 먼저 체크하기

5

신청 링크와 제출 폼 항목을 미리 열어 보고, 마지막 업로드 방식까지 확인하기

6

제출 형식 요건을 기준으로 결과물 포맷과 파일 용량을 미리 맞춰 두기

Generated by gpt-4.1 · prompt contest-v1

브레인스토밍 랩

공고 내용, 심사 기준, 접수 항목을 바탕으로 아이디어 리스트와 전략 초안을 한 번에 생성합니다.

한 줄 아이디어만 적어도 됩니다. 공고의 심사 기준과 제출 요건에 맞춰 더 설득력 있는 전략 초안으로 다시 정리합니다.

참가 조건 정리
참가 대상

Global applicants welcome. Student, startup, and indie teams can apply.

접수 항목 / 준비 서류
  • Working demo
  • GitHub repo
  • 5 minute walkthrough video
제출 형식

Working demo, GitHub repo, 5 minute walkthrough video

데이터셋

Teams define their own benchmark or evaluation dataset.

상금 / 보상

총상금 약 7,250만원 + 멘토 오피스 아워

심사 기준
Reliable evaluation
33%
concrete safety metrics
33%
polished user demo
34%
AI 분야
LLM / 에이전트AI 인프라 / 시스템

Agent · Safety · Evaluation · RAG