"내년 사이버 위협에 AI 악용 본격화…AI 가짜 뉴스에 사회 혼란도"


대표 이미지 영역 - SBS 뉴스

내년에는 사이버 공격에 인공지능(AI) 기술을 악용하는 사례가 본격화할 것으로 전망됐습니다.

과학기술정보통신부는 오늘(18일) 국내외 정보보안 전문가와 함께 작성한 올해 사이버 위협 분석과 내년 전망 보고서를 발표했습니다.

내년 사이버 위협 전망에 따르면 AI 서비스 사용이 일반화되며 챗GPT와 같은 검증된 모델을 사용한 선전·선동이나 피싱 공격이 증가할 것으로 예측됐습니다.

오픈AI에 따르면 러시아와 중국 등 일부 국가에서 인터넷상 여론 조작 및 정치적 선전에 챗GPT를 사용한 사례가 발견됐습니다.

보고서는 "AI를 활용해 정교하게 작성한 허위 콘텐츠는 진짜와 구별하기 힘들고 가짜뉴스와 SNS를 통해 빠르게 확산한다"며 "특정 집단에 의한 여론 조작으로 사회적 갈등과 혼란이 증가할 가능성이 크다"고 우려했습니다.

보고서는 "생성형 AI가 기업 내부 시스템과 연동돼서 구축된 경우 민감한 데이터의 노출과 오용 가능성이 커진다"며 "기업들이 AI 모델 도입 단계에서 보안을 내재화하고 상시 모니터링 체계를 구축해야 한다"고 조언했습니다.

생성형 AI 외에도 목적 자체가 불법적인 사기(Fruad)GPT, 웜(Worm·악성코드 생성)GPT 등 악성 AI 모델이 다크웹 등에서 퍼질 것으로도 예상됐습니다.

보고서는 자율주행차, 스마트 빌딩·교통 시스템 등 디지털 융합 기술이 확산함에 따라 이를 노린 사이버 위협도 커질 가능성이 있다고 봤습니다.

아울러 우크라이나-러시아 전쟁 장기화 등 글로벌 분쟁 심화에 따른 정부 기관 및 사회 기반 시설에 대한 사이버 공격 증가 가능성도 우려했습니다.

보고서는 올해 일어난 주요 사이버 위협 양상으로 ▲ 스팸, 피싱 증가에 따른 국민 피해 ▲ 소프트웨어 공급망 공격 등 복합적인 공격 전술 ▲ 랜섬웨어 공격기법 고도화를 꼽았습니다.

Copyright Ⓒ SBS. All rights reserved.
무단 전재, 재배포 및 AI학습 이용 금지
광고 영역
댓글
댓글 표시하기
이 시각 인기기사
기사 표시하기
많이 본 뉴스
기사 표시하기
SBS NEWS 모바일
광고 영역