살금살금

살금살금

AI 보안 실무와 LLM 기반 개인정보 보호 분야에서 현직 컨설턴트로 일하고 있습니다. 이 블로그에는 현장에서 마주한 경험과 고민들을 조용히 정리해두고 있습니다. 필요하신 분들께 작게나마 도움이 되기를 바랍니다.

(7) 개인정보 마스킹이란? 왜 중요한가?

“LLM 시대, 단순 가림을 넘어 ‘문맥 기반 대응’이 필요할 때” “민감정보를 가리면 끝”일까요? 생성형 AI의 도입이 확대되면서 개인정보 보호의 방식도 함께 진화해야 한다는 요구가 커지고 있습니다.특히 챗봇이나 LLM을 도입한 기업들은“개인정보를 가명 처리하거나 마스킹하면 된다”는 인식에 머무르는 경우가 많습니다. 그러나 현실은…

(6) AI 개인정보 보호를 위해 필요한 조치 5가지

“기술 이전에, 설계가 먼저입니다.” 왜 ‘조치’가 아니라 ‘설계’부터 시작해야 하는가? 많은 기업이 “AI 보안을 어떻게 구축해야 하나요?”라는 질문에 대해,암호화 기술, 탐지 도구, 인증 방식 같은 기술 리스트부터 생각합니다.그러나 실제 사고는 ‘무엇을 어떻게 설계했는가’의 부재에서 출발하는 경우가 대부분입니다. 이번 글에서는 실무…

(5) 챗봇이 유출하는 민감정보 종류

“단어가 아닌 ‘문맥’이 유출을 만든다” ⚠️ 이 글에서 다루는 ‘문맥상 민감정보’는 주민등록번호나 전화번호처럼 형식이 고정된 정보가 아니라, 대화 문맥이나 상황에 따라 민감하게 작용할 수 있는 정보를 의미합니다. 예를 들어, “아이 등교 시간은 8시예요” 같은 문장은 단독으로는 개인정보가 아닐 수 있지만,위치,…

(4) 금융·공공기관에 내려온 가이드라인 정리

“생성형 AI와 SaaS의 새 시대, 규제는 어디로 가는가” ⚠️ 이 글은 전체 가이드라인을 대체하지 않습니다.다만, 지금 기업이 보안 관점에서 우선적으로 확인하고 대응해야 할 핵심 요소들만 선별해 정리했습니다.보다 구체적인 규정과 사례는 포스팅 하단 각 기관의 공식 문서 링크를 참고하시기 바랍니다. 변화의…

(3) 실수로 입력한 개인정보, 어떻게 유출될까?

“챗봇 하나로 시작된 진짜 사고 이야기” “그냥 상담 좀 했을 뿐인데…” 고객은 아무런 악의도 없이 자신의 개인정보를 입력했습니다.상담직원은 해당 정보를 받아 적었고, 챗봇 시스템은 이를 로그에 저장했습니다.이제 문제는 ‘누구도 이게 유출될 줄 몰랐다는 점’입니다. 이번 포스팅에서는 실제 발생 가능한 시나리오를…

(2) LLM 시대, 개인정보 유출의 새로운 위험

“이제는 AI 내부에서 새는 정보까지 막아야 할 때” AI의 진화, 보안의 위협이 되다 대규모 언어모델(LLM, Large Language Model)이 업무 현장에 도입되면서 우리는 놀라운 자동화, 생산성 향상, 고객 응대의 혁신을 경험하고 있습니다. 그러나 이런 놀라움 이면에는 보안상 심각한 허점이 숨어 있습니다.…

(1) 2026년 금융권 개인정보 규제, 무엇이 달라지나

“LLM 시대, 금융기관의 새로운 보안 숙제” 금융권, 새로운 개인정보 규제를 맞이하다 AI가 금융 현장에 빠르게 도입되면서, 개인정보 보호에 대한 규제 역시 더욱 정교해지고 있습니다. 특히 2026년은 금융권 입장에서 큰 전환점이 될 수 있는 해입니다. 2026년부터 금융권에 적용될 개인정보 보호 관련…