인공지능 시대를 맞이하는 Fasoo의 AI 솔루션
AI 기술을 기반으로 비즈니스 환경이 재구성되고 있는 현재 상황에서 생성형 AI는 단연 그 중심에 있으며, 혁신적이고 유용한 도구로 활용되고 있습니다. 하지만 생성형 AI는 그 접근성이 편리한 만큼 서비스 오남용 위험도가 높으며, 개인정보 및 소스코드, 영업기밀 등 정보자산 및 민감정보 관련 유출 사고가 빈번히 발생하고 있습니다.
많은 기업들이 임직원 교육과 자체 수칙으로 AI 보안 리스크를 관리하고 있으며, 정부 역시 생성형 AI 활용 시 개인정보 입력 금지 등 보안 지침을 제시하고 있습니다. 국가정보원은 N2SF 보안 가이드라인과 실증 사업을 통해 공공기관의 생성형 AI·클라우드 도입에 필요한 보안 요구사항을 제시하며, 안전한 AI 활용 환경 구축의 필요성을 강조하고 있습니다.
또한, 금융권에서도 생성형 AI 활용을 위해 망분리 규제를 완화하면서, 조직 내 AI 사용 과정에서 발생할 수 있는 정보 유출에 대한 대비책 마련이 요구되고 있습니다.
AI-R DLP (AI Radar Data Loss Prevention, 에어 디엘피)는 생성형 AI 사용 과정에서 발생할 수 있는 정보 유출을 사전에 방지합니다. 패턴 매칭과 딥러닝 기반 분석을 활용해 민감정보를 보다 정확하게 검사하고, 생성형 AI에 입력되거나 첨부되는 모든 프롬프트와 파일 등에 대해 검사 및 후처리 정책을 적용할 수 있습니다. 관리자는 조직 환경에 맞춰 민감정보와 대외비 규정을 설정할 수 있으며, 이를 통해 업무 생산성을 유지하면서도 안전한 생성형 AI 활용 환경을 구축할 수 있습니다.
이미 다가온 미래,
생성형 AI를 안전하게 활용하는 방법
생성형 AI 활용을 위한 필수 솔루션
ChatGPT등의 생성형 AI 서비스에 입력되거나 첨부되는 파일 및 데이터의 모니터링 및 통제, 민감정보와 대외비 식별 및 후처리 정책 적용을 통해 안전한 생성형 AI 활용 환경을 구축합니다.
N2SF 실증 사업 완벽 대응
필수 문서 분류 및 대외비 기준을 기반으로 AI 활용 시 중요도·민감도별 데이터 구분과 통제가 가능해, N2SF 실증 사업의 요구를 충족할 수 있습니다.
세부적인 차단 정책 설정
특정 IP, ID, 데이터 크기, 개인정보, URL 등 세부적인 차단 정책 설정을 할 수 있으며, 실제 서비스 사용자에게 차단 메시지 팝업을 띄워 정보 유출 사고를 미연에 방지합니다. 또한, 관리자는 조직 환경에 맞춰 세부적인 민감정보 및 대외비 규정 정책을 설정할 수 있습니다.
통합 로그 모니터링 및 후처리
규정 위반 사용자와 민감정보를 모니터링해, 검사 규정에 따른 다양한 후처리 정책을 적용할 수 있도록 지원합니다.
사내 임직원들이 업무를 위해 생성형 AI를 활용하고 있나요?
ChatGPT와 같은 Public AI 서비스 오남용으로 인해 개인정보나 소스코드, 영업 기밀 등의 사내 중요 정보가 유출되는 사고는 지속적으로 발생하고 있으며, 안전한 생성형 AI 활용 인프라 구축은 이제 필수가 됐습니다.
AI-R DLP는 패턴 매칭과 AI 기술을 활용해 생성형 AI 활용 시 발생할 수 있는 정보 유출을 방지하는 제품입니다. 생성형 AI 서비스에 입력되는 데이터를 모니터링하고, 차단할 수 있습니다.