인사팀 AI 활용 기준을 세울 때 가장 먼저 정해야 할 것이 평가 문서 작성 범위다. 채용평가, 성과평가, 승진평가 등 HR 의사결정 과정에서 AI가 문서를 어느 수준까지 생성·수정해도 되는지 범위를 명확히 하지 않으면 운영 일관성이 깨지고 리스크에 노출된다. 지금 이 기준을 정하지 않은 회사라면 긴급으로 체크해야 한다.
빠른 판단 포인트
- 평가 문서를 AI가 자동 생성하는 단계와 인사 담당자가 수동으로 검토하는 단계를 명확히 구분했는가
- 개별 평가자(팀장, 임원)가 AI 도구를 쓸 때와 인사팀만 쓸 때의 권한과 책임을 구분했는가
- AI 생성 문서가 최종 공시되기 전 누가, 무엇을 검수할지 프로세스를 기록했는가
체크리스트
- 평가 문서 작성에 AI를 사용 가능한 업무 단계를 명시했다 (초안, 검토, 최종본 중 어느 단계인지)
- AI 도구별로 허용 범위가 다른 경우 각각을 따로 기준을 정했다 (챗봇 vs 전문 HR SaaS vs 사내 자동화 도구)
- 평가 문서 초안 작성에 AI를 쓸 때 입력할 수 있는 정보(데이터) 범위를 정했다
- AI가 생성한 평가 내용이 회사 가치관, 평가 기준과 맞지 않을 때의 수정 절차를 정했다
- 평가자가 AI 도움을 받은 사실을 문서에 기록하거나 공시할지 여부를 정했다
- 평가 문서에 포함된 개인정보와 민감 정보가 AI 학습에 사용되지 않도록 설정했는가 확인했다
- 평가 결과와 관련된 분쟁 시 AI 생성 부분과 인사팀 판단 부분을 구분할 수 있는 기록을 남기기로 했다
핵심포인트
평가 문서 작성 범위를 애매하게 두는 이유는 대부분 ‘지금 당장은 문제 없을 것 같은데’라는 생각 때문이다. 하지만 실제 문제는 세 가지로 나타난다.
첫째, 평가자별로 쓰는 기준이 달라진다. 팀장 A는 AI로 초안을 완전히 만들고, 팀장 B는 AI를 쓰지 않는 상황이 벌어진다. 나중에 평가 형평성 문제가 제기될 때 이를 설명할 근거가 없다.
둘째, 평가 대상자가 이의를 제기할 때 회사가 대응할 수 없다. 평가 내용이 AI 자동 생성인지, 인사팀 판단인지, 평가자 의견인지 구분되지 않으면 투명하게 설명할 수 없다.
셋째, 신입 평가, 특정 직급 평가, 명시적 위험군 평가처럼 더 엄격한 기준이 필요한 상황에서도 모두 같은 방식을 쓰게 된다. 그 결과 운영 리스크가 커진다.
먼저 볼 승인 기준은 이것이다. 첫 단계에서 인사팀장 이상의 승인을 받아야 한다. AI 활용 기준서 자체가 내부 정책이기 때문이다. 둘째, 법무팀과 경영진이 함께 검토해야 한다. 셋째, 시행 전 전사 평가자 교육과 공지가 필수다. 마지막으로, 첫 평가 시즌이 끝난 후 30-60일 내에 실제 운영 상황을 점검하고 기준을 미세 조정해야 한다.
대응 절차
- 상황 확인: 현재 회사에서 어떤 AI 도구를 HR 업무에 쓰고 있는지, 각각 누가 쓰는지 파악하라. 예를 들어 ChatGPT, Claude, 자사 SaaS, 사내 자동화 도구 등이 모두 다른 상황이다.
- 영향 범위 파악: 평가 문서 작성 외에도 경력기술서, 인사평가 피드백, 승진 추천서 등 다른 HR 문서에서도 AI를 쓰고 있는지 전수조사하라. 그 과정에서 평가 문서만 기준을 정할 수는 없다는 걸 알 수 있다.
- 우선 조치: 인사팀 내에서 지금 바로 쓸 수 있는 임시 기준을 정하라. 예: ‘평가 초안 작성에는 AI 사용 가능하되, 성과 수치와 직원 이름을 입력해서는 안 됨’. ‘최종 평가 내용은 반드시 인사팀장이 읽고 검증함’
- 내부 확인: 법무팀, 경영진, 노무사(필요시)와 협의해 최종 기준안을 만들어라. 특히 개인정보 보호와 분쟁 대응 부분을 점검받아야 한다.
- 후속 대응: 평가자 공지, 교육, 운영 점검 일정을 정하고 실행하라. 첫 시즌 후 실제 사례를 모아 기준을 개선하는 사이클을 만들어야 한다.
공식 정보 확인 안내
회사의 개인정보 보호 정책, 인사규정, IT 보안 가이드를 함께 검토하며 AI 활용 기준을 만들어야 한다. 필요하면 법무팀이나 외부 전문가 의견을 받아 최종 확정하길 권한다.
자주 묻는 질문 FAQ
Q1. 평가 초안을 AI로 완전히 만들면 안 되나
회사 정책으로 금지하지 않으면 기술적으로 가능하지만, 운영상 문제를 먼저 생각해야 한다. 초안이라도 누가 어떤 데이터를 입력했고, 어느 부분을 수정했는지 추적 가능해야 평가 형평성 문제 시 대응할 수 있다. 그래서 기준을 정할 때 ‘초안은 가능하되 검수 프로세스는 필수’라고 명시하는 게 좋다.
Q2. 팀장이 개인 ChatGPT 계정으로 평가를 쓰는 건 막아야 하나
기술적으로 막기 어렵지만, 정책으로는 분명히 정해야 한다. 개인 계정을 쓰면 회사 데이터 보안, 개인정보 유출, 감시 어려움 등의 리스크가 커진다. 회사 정책에서 ‘평가 문서 작성에는 승인된 도구만 사용’ 같은 원칙을 정하고 운영 과정에서 점검하면 된다.
Q3. AI가 만든 평가 내용이 차별적이라면 어떻게 대응하나
AI 학습 데이터의 편향이나 입력값의 오류로 인해 부적절한 평가가 생길 수 있다. 이를 대비해 ‘평가 문서 최종본은 인사팀과 평가자가 함께 검토하고 서명’하는 프로세스를 만들어야 한다. 그 과정에서 발견된 문제는 기록하고, 나중에 평가 기준 개선에 반영한다.
Q4. 평가 기간 중간에 AI 활용 기준을 바꾸면 문제가 되나
평가가 진행 중일 때 기준을 바꾸면 형평성 문제가 될 수 있으니 되도록 피해야 한다. 기준을 정할 때 ‘해당 연도 평가 기간 동안 기준 변경 없음’을 원칙으로 정하고, 필요한 개선은 다음 평가 시즌에 반영하는 방식을 권한다.
이 글은 정보를 쉽게 확인할 수 있도록 참고용으로 작성되었습니다. 최신 기준과 정확한 내용은 반드시 공식 안내를 통해 확인하시기 바랍니다.