[김상훈 기자의 That's IT]“날 검색하지 말라”

  • 동아일보
  • 입력 2011년 3월 23일 03시 00분


코멘트
보름 전 이 코너에서 검색엔진과 소셜네트워크서비스(SNS)를 이용한 보이스피싱이 얼마나 쉽게 이뤄지는지 설명한 적이 있습니다. 검색되는 정보가 SNS와 결합하면 악당이 우리의 개인정보를 수집해 나쁜 목적으로 쓰는 게 전혀 어렵지 않다는 얘기였죠. 그 글을 쓴 뒤 저도 제 정보를 검색해 봤습니다. 섬뜩했습니다. 저는 제 아기 사진을 올리는 지극히 개인적인 용도의 ‘티스토리’ 블로그를 하나 갖고 있는데 이 블로그가 네이버와 다음에서 줄줄이 검색된 겁니다.

2007년 오스트리아 그라츠공대의 헤르만 마우러 교수는 ‘구글과 같은 거대 검색엔진의 위험성과 기회’라는 논문에서 “검색되지 않는 것은 존재하지 않는 것”이라고 주장했습니다. 우리가 어느새 인터넷 검색엔진에 지나치게 의존한 나머지 검색되지 않는 사실은 마치 세상에 존재하지도 않는 사실처럼 여기게 됐다는 한탄이었죠.

검색엔진은 세상의 모든 정보를 담기 위해 온갖 노력을 기울였습니다. 지금 이 순간에도 구글과 네이버, 다음 등 수많은 검색엔진이 우리가 인터넷에서 만들어내는 트윗과 페이스북 담벼락, 싸이월드 미니홈피, 블로그의 글을 긁어 들이며 ‘검색되지 않아 존재하지 않는 듯 보이는 오류’를 줄이고 있습니다.

그 결과 제겐 정반대의 문제가 생긴 셈입니다. 숨기고 싶은 정보도 검색되기 시작했으니까요. 웹의 모든 정보에 ‘검색될 권리’가 있다면 이 정보를 만드는 우리 개인에게는 ‘검색되지 않을 권리’도 함께 존재합니다. 제가 맘을 푹 놓고 있던 이유는 ‘로봇 규약’에 따라 블로그 파일 안에 ‘검색하지 말라’는 ‘메타태그’라는 형식의 명령어를 붙여 놨기 때문입니다. 로봇 규약이란 웹사이트에 ‘robots.txt’라는 파일을 만들어놓거나 특정 명령어를 적으면 검색엔진이 해당 웹사이트를 읽지 않고 통과하는 일종의 ‘출입금지’ 팻말입니다. 법적 규제는 아니지만 구글과 빙 등 글로벌 검색엔진은 물론이고 네이버와 다음도 이를 지킨다고 주장합니다. 그래서 믿었습니다.

하지만 사실은 달랐습니다. 구글이나 기타 검색엔진은 로봇 규약을 철저히 지켰지만 네이버와 다음은 이를 지키지 않았으니까요. 왜 이런 일이 벌어지는지 두 회사에 문의했더니 똑같은 답을 받았습니다. “단순한 실수였다”는 겁니다. 취재가 시작되자 두 회사는 거의 동시에 이 문제를 수정했습니다. 현재 제 블로그는 더는 검색되지 않습니다. 더 놀라운 건 고객 게시판을 검색해보니 이 문제를 다른 누리꾼들도 3년 전부터 지적해왔다는 겁니다. 하루 만에 해결될 일을 이들이 몇 년 동안 그냥 방치해 둔 것이죠.

인터넷은 우리의 일거수일투족을 점점 더 자세히 파악하고 있습니다. 그리고 이 인터넷을 이용하는 사람들 가운데는 악당들도 섞여 있습니다. 검색엔진을 다루는 분들께서는 ‘검색될 권리’ 못잖게 ‘검색되지 않을 권리’에도 더 많은 관심을 기울여 주셨으면 합니다.

김상훈 기자 sanhkim@donga.com



  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스