AI 도구에 데이터를 붙여넣으면 어떻게 될까
기밀 계약서의 한 문단을 복사해서 AI 챗봇에 붙여넣고 요약을 요청합니다. 집 주소를 AI 어시스턴트에 입력해서 길을 안내받습니다. 고객 데이터가 담긴 스프레드시트를 "즉시 분석해 드립니다"라고 약속하는 AI 도구에 업로드합니다.
각각의 경우, 여러분은 잠재적으로 민감한 정보를 서드파티 서비스에 공유한 것입니다. 그리고 여러분만 그런 것이 아닙니다.
문제의 규모
2024년 한 연구에 따르면, 64%의 사람들이 AI 도구에 민감한 데이터를 공유한 적이 있으며, 그 데이터가 이후 어떻게 처리되는지 완전히 이해하지 못하는 경우가 많았습니다. 여기에는 개인 식별 정보, 금융 정보, 의료 정보, 기밀 비즈니스 데이터가 포함됩니다.
AI 도구의 편리함은 부인할 수 없습니다. 문서를 요약하고, 이메일을 작성하고, 코드를 디버그하고, 복잡한 질문에 몇 초 만에 답합니다. 하지만 그 편리함에는 대부분의 사용자가 생각하지 않는 대가가 따릅니다: 여러분이 입력한 데이터가 저장되거나, 로깅되거나, 학습에 사용되거나, AI 제공업체의 직원이 접근할 수 있다는 것입니다.
주의 AI 도구에 텍스트를 붙여넣으면 해당 텍스트가 회사 서버로 전송됩니다. 회사에서 데이터를 "학습에 사용하지 않는다"고 해도 악용 방지, 품질 보증, 디버깅을 위해 로깅될 수 있습니다. "학습에 사용하지 않음"은 "저장하지 않음"과 같은 뜻이 아닙니다.
AI 회사가 여러분의 데이터로 하는 일
AI 도구마다 데이터 처리 방식이 다르지만, 프롬프트를 제출하면 일반적으로 다음과 같은 일이 일어납니다:
1. 전송
여러분의 입력 내용이 인터넷을 통해 AI 회사의 서버로 전송됩니다. 연결이 암호화되어 있다면(HTTPS) 데이터는 전송 중에 보호됩니다. 하지만 서버에 도착하면 회사가 데이터를 관리합니다.
2. 처리
AI 모델이 응답을 생성하기 위해 여러분의 입력을 처리합니다. 이는 회사의 인프라에서 이루어지므로 여러분의 데이터가 최소한 일시적으로 해당 서버에 존재합니다.
3. 로깅
대부분의 AI 서비스는 악용 탐지, 서비스 개선, 디버깅, 규정 준수 등 다양한 목적으로 입력과 출력을 로깅합니다. 이러한 로그는 회사 정책에 따라 며칠, 몇 달, 또는 무기한 보관될 수 있습니다.
4. 학습 (아마도)
일부 AI 도구는 사용자 입력을 모델 개선에 사용합니다. 이는 여러분의 데이터가 AI가 미래 사용자에게 응답하는 데 사용하는 지식의 일부가 될 수 있다는 뜻입니다. 모든 회사가 이렇게 하는 것은 아니며 많은 곳에서 옵트아웃 옵션을 제공하지만, 기본 설정은 다양합니다.
AI 도구에 절대 붙여넣지 말아야 할 것들
비밀번호와 자격 증명
당연해 보이지만, 실제로 일어나는 일입니다. 사람들이 설정 문제에 대한 도움을 받기 위해 비밀번호, API 키, 데이터베이스 연결 문자열, 인증 토큰을 AI 도구에 붙여넣습니다. 한번 전송하면 해당 자격 증명이 노출된 것으로 간주해야 합니다.
개인 식별 번호
주민등록번호, 국민 ID 번호, 여권 번호, 운전면허 번호. 이것들은 신원 도용의 기본 요소입니다. 어떤 온라인 도구에도 절대 붙여넣지 마세요.
기밀 비즈니스 데이터
고객 목록, 재무 보고서, 독점 코드, 영업 비밀, 법률 문서, 인수합병 세부 사항. 삼성, 아마존, 애플 등 주요 기업의 직원들이 기밀 데이터를 AI 챗봇에 붙여넣다 적발되어 데이터 유출과 회사 차원의 AI 사용 금지로 이어진 사례가 있습니다.
알고 계셨나요? 2023년 삼성은 엔지니어들이 독점 소스 코드와 내부 회의록을 ChatGPT에 붙여넣은 후 직원들의 AI 챗봇 사용을 금지했습니다. 해당 데이터는 서비스의 학습 데이터셋에 포함되어 다른 사용자들이 접근할 수 있게 되었습니다.
의료 및 건강 정보
진단, 약물, 의료 기록, 상담 노트. 건강 데이터는 가장 민감한 개인 정보 범주 중 하나이며 미국의 HIPAA, 유럽의 GDPR과 같은 법률에 의해 특별히 보호됩니다.
금융 정보
은행 계좌 번호, 신용카드 번호, 세금 신고서, 투자 내역. 금융 데이터가 잘못된 사람의 손에 들어가면 사기가 가능합니다.
사적인 대화
개인 이메일, 문자 메시지, 사적인 대화 내용. 다른 사람의 사적인 대화를 AI 도구에 붙여넣는 것은 상대방의 프라이버시도 침해할 수 있습니다.
AI 도구를 안전하게 사용하는 방법
목표는 AI 도구를 완전히 피하는 것이 아닙니다. AI 도구는 정말 유용합니다. 목표는 신중하게 사용하는 것입니다.
1. 붙여넣기 전에 익명화하세요
문서에 대한 AI 도움이 필요하다면 실명을 가명으로 바꾸고, 식별 번호를 제거하고, 기밀 세부 사항을 삭제하세요. 민감한 부분을 포함하지 않아도 대부분 같은 수준의 도움을 받을 수 있습니다.
2. 가능하면 로컬 도구를 사용하세요
민감한 파일을 다루는 작업의 경우 서버에 업로드하는 것보다 기기에서 로컬로 데이터를 처리하는 도구를 선호하세요. 클라이언트 사이드 처리를 사용하는 브라우저 기반 도구가 좋은 선택입니다.
팁 민감한 PDF를 다룰 때는 브라우저에서 로컬로 파일을 처리하는 도구를 사용하세요. 예: PDF 메타데이터 정리 또는 PDF 텍스트 추출 — 모두 서버 업로드 없이 여러분의 기기에서만 실행됩니다.
3. 개인정보 보호 정책을 읽으세요
민감한 데이터를 AI 도구에 붙여넣기 전에 개인정보 보호 정책을 확인하세요. 다음 질문에 대한 답을 찾아보세요:
- 내 데이터가 모델 학습에 사용되나요?
- 내 데이터는 얼마나 오래 보관되나요?
- 내 데이터를 삭제할 수 있나요?
- 데이터 수집에 대한 옵트아웃이 있나요?
4. 기업용 버전을 사용하세요
회사에서 AI 도구를 사용한다면 계약에 의한 데이터 보호, 데이터 학습 미사용, 데이터 거주지 보장을 제공하는 엔터프라이즈 플랜을 요구하세요.
5. 모든 것이 저장된다고 가정하세요
가장 안전한 사고방식은 AI 도구에 붙여넣는 모든 것이 무기한 저장될 수 있고 회사 직원이 볼 수 있다고 가정하는 것입니다. 그것이 불편하다면 붙여넣지 마세요.
주의 AI 챗봇에서 대화를 "삭제"하면 일반적으로 여러분의 화면에서는 사라지지만, 회사의 로그와 백업에는 여전히 데이터가 존재할 수 있습니다. 사용자 인터페이스에서의 삭제는 서버에서의 삭제와 다릅니다.
더 큰 그림
AI 도구는 업무와 일상의 모든 측면에 통합되고 있습니다. 편리함은 실재합니다. 하지만 우리가 공유하는 데이터에 무슨 일이 일어나는지 이해할 책임도 마찬가지입니다.
가장 좋은 접근 방식은 간단합니다: AI 도구를 지식이 풍부한 낯선 사람과의 대화처럼 대하세요. 일반적인 주제를 기꺼이 논의하고, 조언을 구하고, 설명을 요청할 것입니다. 하지만 여권, 비밀번호, 회사 기밀 파일을 건네지는 않을 것입니다.
파일을 공유하기 전에 보호하세요
AI 도구를 사용하지 않을 때도, 공유하는 파일에 대한 좋은 데이터 위생을 실천하세요:
- 외부에 문서를 공유하기 전에 PDF 메타데이터 정리
- 온라인에 이미지를 게시하기 전에 사진 EXIF 데이터 제거
- 민감한 문서를 이메일로 보낼 때 PDF 비밀번호 보호
- 계정 보안을 위해 비밀번호 유출 여부 확인
오늘부터 데이터를 관리하세요:
모든 도구는 무료이며, 데이터를 로컬에서 처리하고, 파일을 어떤 서버에도 업로드하지 않습니다.