눈 깜짝할 사이에, AI는 갑자기 모든 곳에 존재하게 되었습니다. 조직에서는 생성형 AI(GenAI)를 사용하여 24시간 고객 지원을 제공하고, 맞춤형 쇼핑 추천을 마련하며, 소프트웨어 개발을 가속화하고, 마케팅 콘텐츠를 제작하는 등 다양한 작업을 합니다.
오늘날 AI는 컴퓨터가 비즈니스 세계에 처음 도입되었을 때 만큼이나 영향력이 있고 파괴적입니다. 기업은 AI를 채택하지 않으면 빠르게 시대 에 뒤질 수 있습니다.
따라서 CIO와 CISO는 AI 도입을 시작해야 한다는 엄청난 압박을 받고 있습니다. 조직에서는 새로운 AI 기반 소프트웨어 솔루션을 채택하고 직원에게 AI 도구에 대한 액세스 권한을 부여해야 합니다. 하지만 동시에 기술 리더들은 AI 때문에 새로운 위험이 초래된다는 점을 이해합니다. 많은 기술 리더들이 정책과 보호 기능을 빠르게 구현하여 중요한 정보를 보호하고, 섀도우 AI를 방지하며, 잘못된 정보가 생성될 가능성을 줄이고 있습니다.
기술 리더는 AI 활성화와 사용 관리 사이에서 적절한 균형을 잡으려고 노력하지만, 소프트웨어 구매 및 갱신 프로세스를 변경해야 합니다. 소프트웨어 구매가 게임처럼 보이는 때가 있다면, AI가 규칙을 바꾸고 있는 것입니다. 기존의 규칙을 그대로 따르면 조직이 위험에 처할 수 있습니다. 그러한 위험을 줄이려면 CIO와 CISO는 소프트웨어 계약, 애플리케이션 아키텍처, 소프트웨어 벤더 자체에 대한 검토를 강화해야 합니다.
소프트웨어 벤더가 점점 더 많은 제품에 AI를 통합함에 따라 CIO와 CISO는 소프트웨어 갱신 처리 방법을 바꾸어야 합니다. 이미 구매한 소프트웨어의 경우 마스터 서비스 계약(MSA)에 서명하고 특정 조건에 동의했을 것입니다. 하지만 이러한 조건 중 일 부는 다른 문서와 하이퍼링크로 연결되어 있습니다. 소프트웨어가 업데이트되면 벤더가 하이퍼링크된 문서의 내용을 변경할 수 있으며, 귀사에서는 MSA를 지속해서 검토하지 않는 한 알 수 없습니다.
문제는 애플리케이션에 새로운 AI 기능이 통합되면 AI 및 데이터 거버넌스 정책과 충돌할 수 있다는 것입니다. AI로 강화된 소프트웨어를 제공하기 위한 경쟁에서 기존 소프트웨어 벤더가 귀사의 정책과 /cybersecurity/을 위험에 빠뜨릴 수도 있습니다.
SaaS 솔루션을 평가할 때 저는 벤더가 멀티 테넌트를 어떻게 처리하는지 항상 주의 깊게 파악합니다. 구체적으로 공격자가 제 데이터로 무엇을 할 것인지 알고 싶습니다. 제 데이터가 다른 사람의 데이터와 완전히 분리될까요?
이제 벤더가 AI를 자체 제품에 통합하고 있으므로 벤더의 데이터 처리 방식과 관련하여 추가적인 보안 문제가 있을 수 있습니다. 첫째, 많은 벤더가 자체 AI 서비스를 호스팅하지 않습니다. 자체 AI 서비스를 퍼블릭 클라우드에서 실행하고 있을 수도 있습니다. 그리고 해당 클라우드 벤더가 데이터를 적절하게 보호하지 못할 수도 있습니다.
둘째, 소프트웨어 벤더가 모델의 위치와 관계없이 고객의 데이터를 사용하여 AI 모델을 학습