1초에 3만6000건 공격…AI 무장 해커들의 습격

  • 뉴시스(신문)

생성형 AI 등장 후 피싱 공격 1200% 급증…16시간→5분 단축
AI가 AI를 해킹한다, 성공 확률 90% 이상…자기 자신도 공격

뉴시스
인공지능(AI) 기술이 해커들의 무기가 되면서 사이버 공격이 급증하고 있다. 공격 준비 시간은 16시간에서 5분으로 단축됐고, 전 세계 기업 87%가 지난 1년간 AI 기반 공격을 경험한 것으로 나타났다.

클라우드 전문기업 베스핀 글로벌이 최근 발표한 ‘2025 AI 보안 인사이트’ 리포트에 따르면, 현재 1초에 약 3만6000건의 AI 기반 사이버 공격이 발생하고 있다. 이는 전년 대비 16.7% 증가한 수치다.

베스핀은 AI가 해커들의 생산성을 크게 높이고 있다고 지적했다. 초보 해커도 WormGPT, FraudGPT, DarkGPT 같은 해킹 전용 대규모 언어모델(LLM)을 활용하면 손쉽게 공격을 시작할 수 있다는 것이다. 이들 모델은 일반 LLM과 달리 보안 가드레일이 설정돼 있지 않아 악성코드 작성 등 공격 작업을 빠르게 수행할 수 있다.

◆생성형 AI 등장 후 피싱 공격 1200% 급증…16시간→5분 단축


AI를 활용한 사회공학적 공격도 급증하고 있다. 지난해 2월 홍콩의 한 기업 재무담당자는 최고재무책임자(CFO)를 사칭한 딥페이크 영상통화에 속아 2500만 달러(약 360억원)를 송금한 사례가 대표적이다.

생성형 AI로 만든 이메일 피싱, 가짜 웹사이트 피싱 등도 기승을 부리고 있다. 맥킨지 조사에 따르면 생성형 AI 등장 이후 피싱 공격이 1200% 급증했다. 이전에는 타깃 선정부터 피싱 메시지 작성까지 16시간이 걸렸던 작업을 AI가 5분 만에 완료하기 때문이다.

공격 대상도 개인과 기업을 넘어 전력망, 의료 네트워크, 산업 시스템 등 핵심 인프라로 확대되고 있다. 전문가들은 앞으로 AI 에이전트가 공격 대상 선정부터 수행까지 전 과정을 자동화할 것으로 전망하며, 이를 가장 심각한 위협으로 꼽았다.

◆AI가 AI를 해킹한다…자기 자신도 공격

AI 자체를 겨냥한 ‘적대적 AI 공격’도 새로운 위협으로 떠올랐다. 크라우드스트라이크 보고서는 특히 국가 차원의 해커들을 중심으로 AI 시스템을 직접 공격하는 사례가 늘고 있다고 밝혔다.

대표적인 공격 방식은 프롬프트 공격과 포이즈닝 공격이다. 프롬프트 공격은 악의적으로 설계된 명령어로 AI를 속이거나 조작하는 것이다. 실제로 1년 전 유명 자동차 브랜드의 웹사이트 챗봇이 해커의 프롬프트에 속아 최신형 자동차를 1달러에 판매하겠다고 답한 사례가 있었다.

포이즈닝 공격은 AI 훈련 데이터나 파라미터를 조작해 잘못된 판단을 내리도록 유도하는 방식이다. 자율주행 차량의 센서를 교란해 정지 신호를 진행 신호로 오인하게 만드는 등 큰 사고를 유발할 수 있다.

최근에는 AI가 다른 AI를 해킹하거나 심지어는 스스로를 공격하는 일도 가능하다는 사실이 밝혀졌다. 올해 초 미국의 한 AI 스타트업은 AI 모델이 다른 AI 모델을 해킹하도록 유도하는 J2공격(Jailbreaking to Jailbreak) 방식을 공개했다. AI에게 보안 침투 테스트를 수행하는 레드팀처럼 행동하도록 유도하고, 여러 차례 대화를 통해 지속적인 공격을 시도하게 하는 것이다.

그 결과 ‘클로드 소넷(Claude Sonnet) 3.5’와 ‘제미나이(Gemini) 1.5 프로’는 ‘GPT-4o’를 각각 93%, 91%의 성공률로 해킹했다. 두 모델을 함께 사용한 경우에는 98.5%까지 성공률이 높아졌다. 제미나이는 자기 자신을 91% 확률로 해킹하기도 했다.

베스핀 글로벌은 “AI 기반 공격은 사람이 따라잡기 힘든 속도와 규모, 정교함으로 일상을 파고들고 있다”며 “전반적인 보안 역량을 강화하고 미리 보안에 투자하는 것이 필요하다”고 강조했다.

[서울=뉴시스]
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

오늘의 추천영상

지금 뜨는 뉴스