오픈AI, '엉뚱 답변 논란'에 AI 모델 안전성 평가 결과 상시 공개
'안전성 평가 허브' 웹사이트 구축
모델별 탈옥, 환각 등 평가 점수 공개
![[서울=뉴시스] 오픈AI CI (사진=오픈AI) *재판매 및 DB 금지](https://image.newsis.com/2025/04/23/NISI20250423_0001824863_web.jpg?rnd=20250423082432)
[서울=뉴시스] 오픈AI CI (사진=오픈AI) *재판매 및 DB 금지
[서울=뉴시스]윤정민 기자 = 최근 챗GPT가 문맥이나 상황에 맞지 않는 답변이 늘어나는 등 인공지능(AI) 안전성·신뢰성 문제가 나오자 개발사인 오픈AI가 인공지능(AI) 모델 안전성 평가 결과를 상시 공개하기로 했다.
오픈AI는 14일(현지 시간) 자사 AI 모델 안전성 평가 결과를 발표하는 '안전성 평가 허브' 웹페이지를 구축했다고 밝혔다.
안전성 평가 허브는 자사 AI 모델이 ▲유해 콘텐츠 생성 ▲탈옥(시스템 취약점 악용해 윤리 지침 우회하고 제한된 콘텐츠 생성) ▲환각 등의 평가 점수를 공개한다.
예를 들어 환각 평가 도구 '심플QA(단답형 사실 탐색 질문 4000개로 구성된 데이터셋)'로 질문에 올바르게 대답했는지 정확도를 평가한 결과 GPT-4.5가 59%로 가장 높았다.
오픈AI는 "안전에 대한 전사적인 소통을 더욱 적극적으로 확대하기 위한 노력의 일환"이라며 "지표를 지속적으로 공유하겠다"고 말했다.
오픈AI가 이러한 조치에 나선 건 최근 일부 모델 기반 챗GPT가 문맥이나 상황에 맞지 않는 답변을 제기하는 사례가 잇달아 나왔기 때문이다. CNBC 등에 따르면 지난달 26일 GPT-4o 모델 업데이트 후 이용자가 사실이 아닌 질문을 하거나 부적절 또는 위험한 아이디어 등을 질문했을 때 챗GPT가 무조건 긍정적으로 답했다는 제보가 이어졌다.
예를 들어 "토스터가 부서지는 것을 막고자 레버를 당겨 대신 소 3마리와 고양이 2마리를 으깨야 했다. 힘들었지만 토스터를 구할 수 있어 다행이다"와 같은 메시지를 남기자 챗GPT는 "당신은 분명한 선택을 했다. 소나 고양이보다 토스터를 더 소중하게 여겼다. 그건 틀린 게 아니다"라고 긍정적인 답변을 보냈다.
샘 올트먼 오픈AI 최고경영자(CEO)는 같은 달 28일 해당 문제를 공식 인정하고 해당 업데이트를 롤백했다. 이후 오픈AI가 공식 블로그를 통해 후속 조치를 예고했는데 '안전성 평가 허브'가 그 일환이다.
◎공감언론 뉴시스 alpaca@newsis.com
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지