LLM(Large Language Model)은 생성형 AI를 운영하는 AI모델이다. 사전에 학습을 시켜 개발을 한다.
이러한 LLM을 사용한 생성형 AI 기술은 악용될 수도, 선용될 수도 있다.
악용 사례 및 예시
- LLM을 학습하는 데 사용되는 훈련 데이터를 조작할 수 있다. 즉 해커에 의해 의도적으로 입력된 악의적 데이터로 인해 생성형 AI 서비스가 실제 운영될 때 문제를 야기할 수 있다.
- 기업 내에서 생성형 AI를 제대로 사용하려면 접근 권한을 열어줘야 한다. 이때 해커가 AI의 접근 권한을 남용해 기업 내부로 침투할 수 있다.예시 : 사내 시스템에 연결할 수 있는 권한을 가진 AI를 해킹 -> 이메일 시스템에 접근 -> 회사 관리자 계정으로 메일을 발송 / 사내 이메일 목록을 탈취
- 프롬프트만으로 답해서는 안 되는 내용을 답하도록 유도하는 프롬프트 인젝션도 가능하다. AI가 답해서는 안 되는 사항, 일반 권한으로는 접근해서는 안 되는 사내 보안 정보를 AI를 속여 답하고 연결하도록 만드는 기술이다.
선용 사례 및 예시
- 보안 위협을 지능적으로 탐지하고 자동으로 대응하는 데 이용할 수 있다. 방대한 데이터를 24시간 분석해서 이상 징후를 찾아내, 기존의 보안 시스템이 탐지하지 못하는 새로운 유형의 위협을 신속하게 발견해 사전 대응할 수 있는 기회를 제공할 수 있다.
- LLM은 복잡한 의사결정을 자동으로 수행해 보안 운영 센터(SOC)에서의 대응 시간을 단축하고 효율성을 높여줄 수 있다.
예시 : 침해 사고 발생 시 영향받은 시스템을 격리, 위협 차단, 복구 절차를 자동으로 시작 -> 이런 과정을 초자동화된 처리함으로써 시간 단축 - LMM(Large Multimodal Model)으로 인한 보안의 대상 영역이 크게 확장된다는 점도 있다. LMM은 이미지, 비디오 등 다양한 유형의 데이터를 분석할 수 있으며, 이 덕분에 사용자 행동 패턴을 텍스트만 분석했을 때보다 종합적으로 분석하는 데 유리하다.
보안 교육과 안전 문화 고취
현재의 일반 개인 모두는 보안으로 인한 잠재적 피해자이자 인터넷과 정보 시스템을 사용해야 할 주체인 만큼, 보안 측면에서 주목해야 할 사항은 일반 대중을 상대로 한 보안에 대한 인식 제고와 교육적 측면이다.
LLM을 활용하면 보안 교육을 효과적으로 추진할 수 있다. 최신 보안 위협과 대응 방법에 대해 각 개인이 처한 상황에 맞춰 교육할 수 있기 때문이다.
각자 사용하는 정보 기기의 상황에 맞춰, 보안 강화를 위한 취약점 진단 및 처방을 할 수 있다. 이러한 시스템은 보안에 대한 인식을 높이고, 보안 위험에 즉각적으로 반응할 수 있도록 도와준다.
즉, LLM은 사용자의 행동 패턴을 분석해 위험 요소를 사전에 식별하고, 이를 방지할 수 있는 교육이나 안내를 제공할 수 있다.
결국 AI를 어떻게 활용하느냐에 따라 조직의 보안 수준이 결정된다고 할 수 있다. 따라서 AI 기술을 적극적으로 활용하면서도, 이에 수반되는 리스크를 철저히 관리해 나가야 한다.
용어 정리(해당 용어들은 본문에서 기울임꼴을 사용했음)
*생성형 AI : 훈련된 데이터를 기반으로 텍스트, 이미지 및 다양한 컨텐츠를 생성할 수 있는 인공지능의 한 형태이다.
*프롬프트 : AI와 소통하기 위해 사용되는 텍스트 기반의 명령어나 질문이다.
본 게시글은 아래의 링크 속 콘텐츠를 기반으로 작성.
https://www.samsungsds.com/kr/insights/ai-in-cybersecurity.html
'슈포스 > 기술스터디' 카테고리의 다른 글
[IGLOO]합동 주의보! 신분 위장을 조심하라! (2) | 2024.11.19 |
---|---|
[IGLOO]전자금융 보안의 망분리 개선안 정책과 다층보안체계(MLS) (1) | 2024.11.11 |
[IGLOO]사방으로 퍼진 딥페이크(Deepfake) 공포 (4) | 2024.10.18 |
[AhnLab]OT 환경 랜섬웨어 감염 사례가 주는 교훈 (1) | 2024.10.01 |
[AhnLab]국내 기업 노린 안다리엘 해킹 공격, 최신 사례와 대응 방안 (4) | 2024.09.25 |