살금살금

살금살금

개발자, PM/PL, 아키텍트, 컨설턴트 등 다양한 역할로 IT 프로젝트를 이끌어왔습니다. 기술을 중심에 두되, 사람과 협업, 구조와 실행을 함께 바라보는 시선을 지향합니다. 이 블로그는 실무 현장에서의 판단과 고민들을 조용히 정리해두는 공간입니다. 비슷한 고민을 가진 분들께 작게나마 참고가 되길 바랍니다.

(6) AI 개인정보 보호를 위해 필요한 조치 5가지

AI 개인정보 보호를 위해 필요한 조치 5가지

“기술 이전에, 설계가 먼저입니다.” 왜 ‘조치’가 아니라 ‘설계’부터 시작해야 하는가? 많은 기업이 “AI 보안을 어떻게 구축해야 하나요?”라는 질문에 대해,암호화 기술, 탐지 도구, 인증 방식 같은 기술 리스트부터 생각합니다.그러나 실제 사고는 ‘무엇을 어떻게 설계했는가’의 부재에서 출발하는 경우가 대부분입니다. 이번 글에서는 실무…

(5) 챗봇이 유출하는 민감정보 종류

챗봇이 유출하는 민감정보 종류

“단어가 아닌 ‘문맥’이 유출을 만든다” ⚠️ 이 글에서 다루는 ‘문맥상 민감정보’는 주민등록번호나 전화번호처럼 형식이 고정된 정보가 아니라, 대화 문맥이나 상황에 따라 민감하게 작용할 수 있는 정보를 의미합니다. 예를 들어, “아이 등교 시간은 8시예요” 같은 문장은 단독으로는 개인정보가 아닐 수 있지만,위치,…

(4) 금융·공공기관에 내려온 가이드라인 정리

금융·공공기관에 내려온 가이드라인 정리

“생성형 AI와 SaaS의 새 시대, 규제는 어디로 가는가” ⚠️ 이 글은 전체 가이드라인을 대체하지 않습니다.다만, 지금 기업이 보안 관점에서 우선적으로 확인하고 대응해야 할 핵심 요소들만 선별해 정리했습니다.보다 구체적인 규정과 사례는 포스팅 하단 각 기관의 공식 문서 링크를 참고하시기 바랍니다. 변화의…

(3) 실수로 입력한 개인정보, 어떻게 유출될까?

실수로 입력한 개인정보, 어떻게 유출될까?

“챗봇 하나로 시작된 진짜 사고 이야기” “그냥 상담 좀 했을 뿐인데…” 고객은 아무런 악의도 없이 자신의 개인정보를 입력했습니다.상담직원은 해당 정보를 받아 적었고, 챗봇 시스템은 이를 로그에 저장했습니다.이제 문제는 ‘누구도 이게 유출될 줄 몰랐다는 점’입니다. 이번 포스팅에서는 실제 발생 가능한 시나리오를…

(2) LLM 시대, 개인정보 유출의 새로운 위험

LLM 시대, 개인정보 유출의 새로운 위험

“이제는 AI 내부에서 새는 정보까지 막아야 할 때” AI의 진화, 보안의 위협이 되다 대규모 언어모델(LLM, Large Language Model)이 업무 현장에 도입되면서 우리는 놀라운 자동화, 생산성 향상, 고객 응대의 혁신을 경험하고 있습니다. 그러나 이런 놀라움 이면에는 보안상 심각한 허점이 숨어 있습니다.…

(1) 2026년 금융권 개인정보 규제, 무엇이 달라지나

2026년 금융권 개인정보 규제, 무엇이 달라지나

“LLM 시대, 금융기관의 새로운 보안 숙제” 금융권, 새로운 개인정보 규제를 맞이하다 AI가 금융 현장에 빠르게 도입되면서, 개인정보 보호에 대한 규제 역시 더욱 정교해지고 있습니다. 특히 2026년은 금융권 입장에서 큰 전환점이 될 수 있는 해입니다. 2026년부터 금융권에 적용될 개인정보 보호 관련…