사적인 대화소리 듣고 작동···메시지 전송, 어쩌나

<뉴시스>
[일요서울 | 조택영 기자] 인공지능(AI) 스피커 사용자가 늘어나면서 개인정보 유출‧해킹, 보안 사고 발생 우려도 함께 커지고 있다. 사용자로부터 나온 음성 정보가 플랫폼 사업자‧서비스 업체 등 다양한 곳으로 공유되는 특성 때문이다. AI 스피커가 명령어가 아닌 대화 소리에 작동해 제3자에게 전송하는 일도 벌어졌다.

UC버클리대 연구진, 고주파대 음역 활용 스피커 해킹 실험 성공
전문가 “주변 소리, 사적 농담 기록‧활용될 위험 있어”


최근 해외에서 사용자가 모르는 사이에 AI 스피커 보안 사고가 발생했다. 아마존의 AI 스피커 ‘에코’는 ‘알렉사’라는 호출 명령어로 인식, 작동한다.

해외에서 에코를 사용하던 한 부부가 대화 중 ‘알렉사’와 비슷한 대화를 나누자 에코는 반응을 했고 작동 상태에 돌입했다. 부부의 대화 도중 에코는 “누구에게 메시지를 보낼까요?”라고 물었고 대화에 언급된 이름으로 메시지를 전송했다. 사용자가 의도한 전송이 아닌 AI 스피커가 대화를 잘못 알아들어 불특정 다수에게 사적인 대화나 중요한 내용까지 전달할 수 있다는 우려가 제기되는 이유다.

CNN 등 외신 보도에 따르면 피해자는 “가족의 사적 대화가 기기에 녹음돼 연락처 목록에 있는 지인에게 전송됐다”면서 “녹음파일을 받은 지인의 연락을 받고 대화 내용이 외부로 유출된 사실을 알았다”고 말했다.

이번 일로 충격을 받은 피해자 가족은 AI 스피커와 연결된 모든 기기의 전원과 접속을 끊었다고 한다.

아마존 측은 “드물게 일어난 사고”라며 “가능성을 줄이기 위한 추가 조치를 검토하겠다”고 밝혔다.

미국의 한 대학에서는 음성을 통해 AI 스피커를 해킹하는 실험에 성공하기도 했다. 최근 UC버클리대 연구진은 고주파대 음역을 활용해 해킹 실험에 성공했다. 사람이 들을 수 없는 고주파를 활용해 AI 스피커에 명령을 내리면 이용자 모르게 전화를 걸거나 메시지를 보낼 수 있다는 게 증명된 것.

이를 악용하면 사용자가 바로 옆에 있더라도 메시지 전송 등 해킹 시도에 속수무책으로 당할 수밖에 없다는 지적이다.
 
개인정보 유출
걱정 안 해도 되나

 
AI 스피커는 대부분 작동하지 않을 때도 주변의 소리를 들을 수 있도록 설계돼 있다. 호출 명령어가 AI 스피커를 작동시키는 ‘작동 단추’인 셈이다. 또 호출 명령어 인식 후 음성정보를 어떻게 처리하는가는 업체마다 다르지만 기본적으로 일정 기간 저장돼 AI 스피커 학습 등에 사용된다.

네이버, SK텔레콤, KT 등은 24개월간 보관하며 카카오는 회원이 탈퇴할 때까지 보관하는 정책을 유지하고 있는 것으로 알려졌다. 다만 특정 음성정보가 ‘특정 사용자’의 것인지 모르게 처리하므로 개인정보 유출 걱정은 없다는 게 업체들의 설명이다. 이렇듯 비식별화 된 정보인 만큼 사용자나 수사기관이 음성정보를 요청해도 업체는 찾아줄 수 없다. 그러나 이는 어디까지나 업체마다 정하는 정책일 뿐 어떻게 해야 한다는 규정이 있는 것은 아니다.

단적인 예로 지난 2016년 12월 미국 아칸소주 경찰은 살인사건을 수사하기 위해 아마존 에코가 보낸 데이터를 제공하라는 요청을 했다.

아마존은 처음에 표현의 자유 권리를 들어 데이터 제공을 거부했으나 이후 용의자가 동의하자 데이터를 제공했다.

한상기 소셜컴퓨팅연구소장은 “이제 사용자들은 자신의 음성 명령 기록뿐만 아니라 당시 주변의 소리, TV 시청 소리, 내가 농담으로 했던 명령들이 전혀 예기치 않은 상황에서 중요한 기록으로 활용될 수 있음을 알아야 한다”고 조언했다.

아마존과 구글은 음성 명령을 계정과 연동시켜 보관한다. 대신 사용자가 녹음된 내용을 확인하거나 삭제할 수 있다. 삭제하지 않을 경우 무제한으로 저장하는 것이 원칙이다. 애플의 경우 음성 명령과 계정을 연동시키진 않지만 음성 정보에 임의의 식별자를 부여해 6개월간 보관한다. 아마존과 구글처럼 사용자는 자신의 모든 데이터를 볼 수 있다. 그러나 문제는 삭제 기능에 대한 안내가 충분하지 않다는 점이다. 또 일일이 서비스에 들어가서 삭제를 해야한다는 불편함이 있다.

한 소장은 “더 좋은 서비스를 위해서 프라이버시를 얼마나 희생할 것인가는 사용자의 선택이라고 주장할 것이다. 그러나 사용자의 음성이 어디까지 저장되고, 어떤 형태로, 어느 기간 동안 저장되며, 이렇게 저장된 데이터를 어떤 방식으로 활용하고 누구까지 접근이 가능한 것인가에 대해서는 보다 더 많은 투명성이 요구된다”고 강조했다.
 
“보안 관련 기술
꾸준히 연구해야”

 
클라우드(서비스 사업자의 서버)로 전달되는 음성 데이터는 모두 암호화돼 전달된다. 이는 중간에 음성 데이터를 해킹하기 어렵게 만들려는 노력이다. 그러나 AI 스피커 자체가 해킹된다면 해커는 사용자의 모든 소리를 엿들을 수 있다.

한 소장은 “사실 모든 스마트 기기가 해킹에 취약하다는 보고가 끊이지 않고 있는데 이는 앞으로 프라이버시 보호에 큰 이슈가 될 수 있다”고 전했다.

이어 “사용자가 원하지 않을 때 자신의 음성 데이터를 기기가 처리하지 않기 위해서는 기기에 있는 ‘음소거(mute)’ 버튼을 사용하면 된다. 그러나 이는 매우 번거로울 수 있고 유용성이 떨어진다”고 지적했다.

업계의 한 관계자는 “국내 기업들도 AI 스피커가 보안에 취약하다는 문제점을 인식하고 있다. 또 이를 해결하기 위한 기술 개발에 고심하고 있는 시기”라며 “국내서 IP 카메라 사생활 유출 사고가 발생했던 만큼 AI 스피커 보안과 관련한 기술을 꾸준하게 연구해야 할 것”이라고 밝혔다.
저작권자 © 일요서울i 무단전재 및 재배포 금지